首页 理论教育正确认识人工智能发展要求

正确认识人工智能发展要求

【摘要】:在人工智能技术的发展过程中,无论是作为研究者、创造者的科学工作者,还是作为使用者的普通民众,都要正确地认识人工智能技术发展的内在要求,坚持人工智能的发展不脱离“为人类服务”的宗旨,始终保持这门新兴技术的“向善性”。要真正做到让民众了解人工智能,这样不但可以减少民众对于人工智能出现的伦理问题所产生的心理压力,减少伦理问题带来的负面影响,更有利于人工智能技术的健康发展。

人工智能技术的发展过程中,无论是作为研究者、创造者的科学工作者,还是作为使用者的普通民众,都要正确地认识人工智能技术发展的内在要求,坚持人工智能的发展不脱离“为人类服务”的宗旨,始终保持这门新兴技术的“向善性”。

(一)增强科学家社会责任感

在小科学时代,许多科学家采取了科学对社会责任的中性的超然的态度,亚里士多德在《道德论》(卷10)中就写道:“思考理性问题的学者不需要这一切装饰品,它们或许会成为他思考的障碍。”

然而,现如今科学与生产、社会、政治之间的关系变得非常密切。科学的影响越来越大,它虽然能极大地造福人类,但也能极大地伤害人类,甚至毁灭人类,爱因斯坦曾说过:“以前几代的人给我们高度发展的科学技术,这是一份宝贵的礼物,它使我们有可能生活得比以前无论哪一代人都要自由和美好。但是这份礼物也带来了从未有过的巨大危险,它威胁着我们的生存。”这样,科学家不但对自己的工作和科学界的其他成员有一个道德义务,而且对整个社会有道德责任。科学家们不再可以说“我的工作就只是研究和发明,至于其应用所造成的道德后果,是政治家和管理者应该负责的,除了科学本身的一切,我并不需要做什么”。科学家们要对他们的研究、发明和创造的工作负起相当的道德甚至法律责任。

对于飞速发展的人工智能技术,对人类社会的影响也是越来越大。就人工智能技术可能带来的消极后果而言,科学家们要从以下三方面做出表率:首先,科学家要能够科学地预测人工智能给社会和政治带来的影响。他们有责任向公众和政界说明这些结果,这是一种社会责任。其次,由于科学家的社会地位对公众具有特殊的重要性,所以他们可以在一定程度上参与并影响到政治家的决策。因此,这一领域的科学家对人工智能的应用具有一定的社会责任感。最后,当人工智能的某些项目对人类有害时,科学家们在一定程度上是有权利参加或退出这个项目的。在这里他们不能不做出道德的判断和道德的决策。联合国教科文组织在《关于科学研究者地位的建议》中就明确规定:“科学研究者在政府机构的支持下履行如下和享有如下权利……对于某些项目在人性、社会或生态方面的价值自由表达自己的意见,直至退出这些项目的研究,如果他们的良知这样决定的话。”

可见,在大科学时代,科学家必须要有自己的社会责任感。对于人工智能这项敏感的技术更应如此,他们对课题选择、方法取舍、成果使用的后果不能不加以关注。事实也表明,他们对于人类幸福、人类未来越来越重要。(www.chuimin.cn)

(二)提升民众知识素养

库兹韦尔将未来技术的影响分为三个阶段:首先是敬畏和惊叹的阶段;其次是害怕新技术带来一系列新危险的恐惧感;最后是认识到唯一可行和负责任的道路就是精心设计一种发展路线,然后获得好处,又能控制风险。

现在许多民众都更愿意相信人工智能“威胁论”,这其中更不乏科技界的大佬们,比如物理学家霍金,他认为强人工智能成功实现的那天就是人类灭亡的时刻。公众的这种想法是可以理解的,毕竟几部科幻影片的剧情就是如此引领大众思维的,都出现了人类被机器主宰的场景。当然,对于此类情景我们固然有担心的必要,但是要建立在了解这门技术的基础上再去做出科学的判断,而不是一味地畏惧和反对人工智能技术的发展。尤其是当生活中人工智能出错的时候,一些不负责任的媒体更是夸大其词,错误地引导民众。

这就需要政府、学校、社区和科研机构共同努力,科普人工智能技术,让民众了解更多关于人工智能本质的知识,从而建立科学的判断体系。要让大家明白人工智能是一门向善的技术,它只是计算机科学的一个分支。按照目前的发展规划来看,我们是不允许其出现像科幻片中“反客为主”的场景的。同时,也要让民众了解人工智能将会带来的一系列伦理问题,不要盲目跟风,要理性地取舍,不给错误的言论或误读的信息形成舆论风暴的机会。要真正做到让民众了解人工智能,这样不但可以减少民众对于人工智能出现的伦理问题所产生的心理压力,减少伦理问题带来的负面影响,更有利于人工智能技术的健康发展。