本篇文章2953字,读完约7分钟

赤峰新闻网社发

人工智能的话题最近在谷歌企业的商业炒作“围棋人机大战”中再次大受欢迎。 各种各样的看法层出不穷,其中既有天真混乱的想法,也有伤心的想法。 为了明确设想,有必要认真考虑以下五点。

一、“老虎小”不能成为养虎的理由

当人们表达对人工智能未来失控和危害人类的担忧时,人工智能行业的人、对科学技术的盲目崇拜、盲目乐观的科学主义者很常见:人工智能现在还暂时弱,所以不需要担心云云。 这种说法在媒体上很常见,其实背后是荒唐的逻辑。

我们担心老虎吃人,所以有“养虎”的成语。 怎么能把“老虎小”作为养虎的理由呢? 要说服人们同意养虎,必须论证“老虎不吃人”。 人们担心的是人工智能对未来人类的危害,为了消除这种担心,必须论证“人工智能不会危害人类”,不能以“人工智能尚属初步”为理由。

先别着急嘲笑这个荒唐的理由。 因为很多人工智能行业的大人物和知名人物都公开说出了这个理由。 斯蒂芬·霍金、比尔·盖茨、埃隆·马斯克等智者呼吁世人警惕人工智能的盲目开发时,一位业界名人以此理由进行了反驳,说这三人“愚蠢”。 这有点蛮横。

如果我们不能论证“人工智能不会危害人类”,现在有必要重新审视是否应该迅速发展人工智能。

二、“人工的东西不能超过人”是盲目的信念

当然,人工智能通常比智商高的人玩。 智力荣誉感使他们中的很多人羞愧地说“老虎小”同意养虎,他们知道应该论证“老虎不吃人”,即“人工智能不会危害人类”。 进行这样的论证时经常使用的理由之一是“人工的东西不能超过人”。 这个理由其实不能带来太多智力荣誉,因为很多非专业的公众也这么认为。

但是,有人对“人工的东西不能超过人”的论断提出了令人信服的论证吗? 前所未有。 事实上,这个论断只是盲目的信念。 这个信念事实上,我相信创造者一定比受造物更好。 这样的信念显然与宗教感情有关。 但是,在人工智能的争论中,应该有无神论精神的科学主义者从宗教信仰中寻求思想资源。

而且,这种信念显然违背了常识。 简单的常识是父母不能视为孩子的创造者吗? 如果可以的话(至少可以相当程度),我们没见过那个孩子超过父母的情况吗?

三、“人工智能不一定遵循人类设定的道德标准”,没有充分的论证

比起前两个理由,“人类可以设定人工智能的道德标准”的理由看起来比较专业,至少不会让玩人工智能的高智商直接丢脸。 这也是论证“人工智能不会危害人类”时经常使用的理由。

但是,有人对“人工智能必然遵循人类设定的道德标准”的论断提出了令人信服的论证吗? 前所未有。

更遗憾的是,这一条也明显违反常识。 一个明显的常识是,人类必须学习坏自己子孙的一部分。 这样的例子在日常生活的中天日上演:父母从孩子的报道中灌输了诚实、爱、友好、慷慨、勇敢等美德。 这些不是等于人工智能的“记忆移植”和道德设定吗? 但是,还有无可救药的地学坏了的孩子。 在这个过程中,父母设定的道德标准,学校进行的规则矫正,没能阻止他。

学习坏孩子当然严重危害着人类的一部分,比如这些坏人的刑事犯罪。 但是,为什么他们不统治全人类,或者危害全人类? 那是因为他们毕竟是凡人,能力有限。 但是人工智能追求什么样的领域? 不要出“超人”,个别科学家想退出吗?

四、“拔掉电源”将来未必可行

有些专家把人工智能分为1、没有学习能力(智能程度也相当高) 4个层次。 2、具有固定的学习能力,学习的技能达到一定的值。 3、有固定的学习能力,技能的成长没有界限,但由于其学习能力是事先设定的,所以认为不会成长为超人工智能。 4、具有无限的学习能力,能成长为超人工智能。

专家安慰说,这次与李世石对战的“阿尔法围棋”只是二级人工智能,四级人工智能还没有产生。 其实,这里除了前面讨论过的“老虎小”的荒谬之外,还有更大的危险。

专家常说,当我们试图消除人们对人工智能的普遍担忧时,我们可以拔掉电源。 这个说法在人工智能的想象停留在个人机器人阶段的情况下,可能成立。 更一般地说,只要人工智能依靠有形的伺服机构行动,我们也许就可以断电。 但是,在现实中,人工智能与网络结合后,借助高度发达的定制、物流、快递等社会服务,几乎完全摆脱了对所有伺服机构的依赖。 这不仅在很多幻想作品中反复上演,在现实生活中也有很好的实施。 人工智能只是网络幽灵的情况下,没有机体也没有形态,说什么拔电源呢?

以前阿西莫夫是提倡“机器人三定律”的人,论证过个人机器人智能的物理极限,那是有道理的,但在他的时代没有网络。 现在我们必须特别关注人工智能和网络的结合,对个人机器人来说,这种结合也迅速突破了智能的物理界限。 关于隐形人工智能,有更大的危险性。 结合网络,上述1,2,3,4级人工智能之间的边界还存在吗? 如果心中有一物的人工智能研发人员有意突破这些边界,社会是如何监视的? 人工智能进化为超人工智能可能只是一瞬间,但那时人类无法控制,完全无法控制。

五、“迅速发展科学”也可能是“召唤恶魔”

这是一个具有终极性质的问题。 我们需要知道为什么需要人工智能。

工厂的生产线需要越来越多的工人吗? 社会服务需要越来越多的人手吗? 人工智能需要为我们开车吗? 人工智能需要为我们做手术吗? 这些在想象人工智能的应用前景时经常被提及,但没有仔细推敲。 对这些事业来说,人工智能真的是必不可少的吗?

科学技术和资本结合后的特征之一是为资本增值服务。 科学家很少坦白这个。 他们总是对公众说“为了科学的迅速发展”。 就像“急速发展科学”是终极目的一样,为了“急速发展科学”,所有其他事件,甚至不需要考虑人类的安危。

当然,也有控诉说利用人工智能赢得战争就等于利用核武器赢得战争。 面具认为人工智能“召唤恶魔”比核武器对人类的威胁更大。 霍金则断言“彻底开发人工智能有可能导致人类的灭亡”。 他们的话值得深思。 田松教授说:“警惕科学! 警惕科学家! ’在人工智能的问题上,真的应该说三遍。

今天,即使我们必须开发人工智能,也应该以美国当时在“曼哈顿工程”或我们当时在“二弹一星”的心情进行。 更理想的局面是各大国坐下来谈判,签署禁止或至少限制人工智能开发的国际协定,这是人类的祝福。 (作者:江晓原上海交通大学科学史与科学文化研究院院长、讲座教授,本文原题为“警惕人工智能的五大论纲”)。


智能机器人专家解读“人机大战” 1960年南京工学院(现东南大学)的师生研制出的我国第一台机器人。上世纪60年代,南京工学院(东南大学前身)几个学生为了迎接“南京无线电技术展览会”,希望做一个无线电操纵的机器人。 -03-21 09:13:22
人工智能的棋局刚开始(科技大观) 作为人工智能和深度学习的研究者,我十分在乎此次李世石和“阿尔法狗”的对局。机器的深度学习归根究底还是在模仿人类,从这个意义来讲,李世石是正品,而“阿尔法狗”是山寨版。 -03-17 11:12:07
那些职业会被人工智能取代?行政、服务业等最危险 在围棋人机大战第三场比赛中,谷歌开发的人工智能alphago战胜韩国棋手李世石,总比分3:0领先,这也意味着“阿尔法狗”实际上已经获得胜利。那么令多个公众感到恐慌的一个问题随之而来——那些职业未来会被人工智能所取代呢? -03-13 07:36:59

标题:“警惕人工智能的五个“烟雾弹””

地址:http://www.cfcp-wto.org/cfzx/19869.html