人工智能危险吗?

天体生物学中也有和“智能”相关的话题 。 未来 , 像人类一样的机器智能是否会在宇宙中随处可见?我们是否仅是昙花一现的演化产物 , 我们的聪明才智会否带领我们走向灭亡?我们那由熵驱动的、不断制造繁复的宇宙 , 是否终将与智能相辐合?
【人工智能危险吗?】这都是些好问题 。 还有一个问题也值得追问:我们是否能够复制自己的智能 , 或是做一些与之类似的事?这么做是否明智?

人工智能危险吗?

文章插图

最近几个月 , 这一话题又出现在大众媒体的报道上 。 斯蒂芬·霍金(Stephen Hawking)和伊隆·马斯克(Elon Musk)相继发声 , 最近连比尔·盖茨(Bill Gates)也开始谈论这件事 。 这些聪明人都觉得我们应该谨慎对待人工智能(Artificial Intelligence , 缩写为AI)的发展 , 否则 , 它可能会对人类的生存形成威胁 。
尽管我们很难搞清他们预测的“生存威胁”具体为何 , 但霍金指出 , 强大的人工智能系统可能比生物系统进化得快得-多得-多得-多 , 它将疯狂地掠夺资源 , 最终无视人类的生存 。 我觉得他说的有道理 。 人工智能的威胁不在于其残暴与狂妄(除非我们故意或者不小心将它变成那样) , 而在于它会遵循自身的规律演化 。 我们当然可以假想 , 人类的安保系统会向人工智能植入“同理心”(empathy , 也译“共情” , 指一种站在对方立场、设身处地为其思考的方式) 。 但我觉得 , 这种想法有两个弱点 。 其一 , 大多数人类都有同理心 , 但我们仍旧可以野蛮残暴地对对待同类以及生活在这颗星球上的其他生灵;其二 , 我并不确定真正并且强大的人工智能系统可以由人类步步“驯化”而来 , 我们可能得让它自己发展出智能 。

这意味着什么呢?现今人工智能的“深度学习”会使用算法生成自己的概率规则 , 凭此在大量信息中进行筛选 。 我们并不需要提前将相应的规则“告知”软件 , 相反 , 规则是软件通过自身的算法习得的;或者 , 软件具有一定的依从性 , 能被顺利地引向规则 。 人类就是这么处理语言的 。 这一过程奇妙得无与伦比 , 但若人工智能如此行事 , 是否也能获得和人类一样的效果?怀疑派的诺姆·乔姆斯基(Noam Chomsky)与支持派的彼得·诺维格(Peter Norvig)曾就此激烈争论过 。 从深层次上看 , 这是两个科学派别的对峙 , 其中一派主张内在的简约 , 另一派则认为自然根本就不简单 。

这里我要提出另一种有关人工智能的主张(这并非是我原创) 。 我们也许可以创造一种孕育智能的普遍条件 。 这看来滑稽 , 像是将零部件扔在一个盒子里 , 等待其自行组装成一辆崭新的自行车 。 当然 , 这并非以一种不科学的方式来对待人工智能 。 但是 , 倘若“智能”是演化历程中突然出现的一种非常复杂的系统 , “人工的智能”还有诞生的机会吗?也许是有的 。 工程学为此面临的挑战之一 , 是要制造一个像人脑一样的复杂系统 , 以支撑智能的存在与运转 。 但显然 , 我们的大脑与智力是一同演进出来的 。 我们并不知道这一复杂系统的确切模样 , 所以 , 妄想坐在桌子前设计出一种可以催生出新型智能的系统 , 未免有点蠢 。

推荐阅读