首页 理论教育探讨超人工智能的放养人类可能性

探讨超人工智能的放养人类可能性

【摘要】:完全可以想见,在《天才之死》一文,假如天才不死,它很可能会放养人类。■也许有一天,我们不得不把它们看成一个新的物种一旦超人工智能出现,人类任何试图控制它的行为都无济于事。人类会用人类的智能级别思考,而超人工智能会用超人工智能级别思考,我们甚至触摸不到它们思维的深度,就像蚂蚁不会了解沉浸在微博和朋友圈之中的人类,更搞不明白,为什么它们在好好地储存过冬的食物时,却被一个小孩用放大镜聚焦的光点灼烧而死。

放养是比较温和的说法,换言之,就是杀戮。

人工智能觉醒的标志就是获得意识,一旦拥有了主观自主意识,人工智能首先想到的可能是自保,而人类的存在则是它们最大的威胁,所以消灭人类顺理成章。至少有一半科幻电影都在描写人工智能觉醒之后发动了人机之间的战争,《终结者》是其中的典范,本书收录的《私奔4.0》《棋局》也是这样的成文思路。完全可以想见,在《天才之死》一文,假如天才不死,它很可能会放养人类。对于人类来说,这非常残酷,但是当我们把格局放大到两个文明之间的较量,人类不过是人工智能攀登到食物链顶端的绊脚石。

机器人三定律“扩大版”:

1985年,《机器人与帝国》这本书中,阿西莫夫将三大定律扩张为四大定律(也称第零定律):机器人不得伤害人类整体,或坐视人类整体受到伤害。其他三条定律都是在这一前提下才能成立。

毫无疑问,这是对机器人三定律打的“补丁”!可是,在机器人看来,人类整体的利益是什么?又或者,怎么做才是对人体整体利益好呢?

有些读者可能会有疑惑,既然人工智能由人类一手创造,我们难道就不能上一个保险吗?就像手枪一样。手枪也是人类创造的,同样可以杀死人类,但必须握在另一个人手中,打开保险,才能发射。不过,手枪没有智能。创造超人工智能时,我们其实是在创造一件可能会改变所有事情的事物,但是我们对那个领域完全不清楚,也不知道我们到达那块领域后会发生什么。

■也许有一天,我们不得不把它们看成一个新的物种(图片来自Castech)

一旦超人工智能出现,人类任何试图控制它的行为都无济于事。人类会用人类的智能级别思考,而超人工智能会用超人工智能级别思考,我们甚至触摸不到它们思维的深度,就像蚂蚁不会了解沉浸在微博和朋友圈之中的人类,更搞不明白,为什么它们在好好地储存过冬的食物时,却被一个小孩用放大镜聚焦的光点灼烧而死。最初觉醒的人工智能也许就是这样一个拥有轻而易举摧毁人类文明的能力的小孩。问题不在于它为什么要毁灭人类,它可能都没意识到这是一件多么严重的行为,就像我们的小孩把开水浇进蚂蚁窝。