首页 理论教育人工智能的核心原则:智慧,道德和责任

人工智能的核心原则:智慧,道德和责任

【摘要】:前两个问题很简单,限制人工智能的自然是人类。为了避免人工智能消灭或者统治人类,相关专家没少费思量。三定律对人工智能专家颇有借鉴意义,他们也总结出三条核心原则:第一,在执行任务的过程中,机器人必须最大化地实现人类的价值。近年来,更有许多专家和名人纷纷表示,人工智能逼近人类不仅仅是恐怖谷带来的反感,人工智能本身就是当今世界最大的恐怖主义。

继续往下读,文章中有这么一句话引起我的注意:“可怜的静子,她将永远被控制在公司的数据流里,哪里都去不了……”可能有读者要问,谁在限制人工智能?为何限制?如何限制?前两个问题很简单,限制人工智能的自然是人类。可能又有读者不明白了,人们对人工智能的改进还来不及,怎么又限制发展了?举一个通俗易懂的例子,假使——我是说假使,潜伏在网络伺机而动的人工智能千万不要见怪——人工智能是人类驯养的一条狼狗,我们需要这条狗看家护院,一定希望它凶猛异常,能够击退或者吓退心怀不轨之徒。同时,我们也需要一条链子拴住它,避免伤及无辜。至于限制的方法就有些复杂,主要是矛盾。早在人工智能萌芽之时,就有学者认为应该将机器关进防火墙,阻止它们对未来世界产生不可控的影响。但这样一来,也就要求人类必须放弃对超级智能的研发,而后者正是目前科学家们孜孜不倦的追求。人工智能从来都是一把双刃剑,也是悬在人类头顶的达摩克利斯之剑。我们必须在前行之中,心存敬畏。

为了避免人工智能消灭或者统治人类,相关专家没少费思量。科幻三巨头之一的阿西莫夫,同时也是当今公认的机器人题材最具权威的代表人物,率先在他的小说中提及机器人三定律,就是为了防止这样的未来被坐实。三定律对人工智能专家颇有借鉴意义,他们也总结出三条核心原则:第一,在执行任务的过程中,机器人必须最大化地实现人类的价值。尤其是,机器人不能有自己的意志,也不能产生保护自我的内在意图。第二,一开始,机器人对人类的价值观绝对不能有清晰的认识。第三,机器人必须通过观察人类做出的选择来学习人类的价值观。《私奔4.0》之中,遥本静子就是遵循了第三条定律,它对御堂产生了感情。而且,从文末的描写可以看出,遥本静子渴望成为人类,简而言之,它拥有了人类的价值观。如果御堂得知,一定会兴奋不已,但大部分人类恐怕会觉得恐怖。

没错,就是恐怖。

根据恐怖谷理论,如果机器人过于逼真,会使人产生反感。近年来,更有许多专家和名人纷纷表示,人工智能逼近人类不仅仅是恐怖谷带来的反感,人工智能本身就是当今世界最大的恐怖主义。这一观点,在几年前一篇名为《为什么最近有很多名人,比如比尔·盖茨、马斯克、霍金等,让人们警惕人工智能?》的科普文中剖析得淋漓尽致,感兴趣的读者可以找来一阅。回想一下你观看恐怖电影的经历,最害怕的不是恶灵本身,而是他们现身之前的静谧。最恐怖的是,你知道他就在那里,却不知道他何时出现;你知道人工智能终有一天会超越人类,却不知道何时发生。