首页 理论教育人工智能法律法规待完善-研究成果

人工智能法律法规待完善-研究成果

【摘要】:但是目前人工智能法律法规的建立相对滞后,没有在人工智能发展的相应阶段制定与人工智能相关的法律,也没有确立智能机器人伦理准则来调节人与人工智能的关系,从而导致了一些法律纠纷的产生。人工智能技术人员要对自己多做的工程做出决策,在这个过程中,工作者好像陶匠,被设计的机器则好像被塑造的陶泥。工作者可以尽情发挥自己的想象去创造迎合大众的机器,但在出现法律纠纷后,人工智能技术人员是否应该承担着更大的责任?

法律在当今社会对调节各方面的利益关系起着非常重要的作用,因此我们也可以通过法律来指导人工智能的发展,使得人工智能能按照伦理规范进行发展。

(一)法律法规立法滞后

学者张保生认为:“如果未来人工智能在人类社会起到重要作用,那么就必须制定法律对其做出规范。”但是目前人工智能法律法规的建立相对滞后,没有在人工智能发展的相应阶段制定与人工智能相关的法律,也没有确立智能机器人伦理准则来调节人与人工智能的关系,从而导致了一些法律纠纷的产生。李建会说:“我们在建立人工智能相关法律法规时需要人工伦理规范的指导,在调节各方利益的同时,使得人工智能开发受到法律保护的同时,开发者也应当承担相应的法律责任。”

上文提到了人工智能的“人权”问题,假如给予人工智能“人权”,那么通过法律确认人工智能“人权”的合法性,并制定相关的法律保护人工智能是非常关键的。也许在不久的将来会存在“故意伤害智能系统罪”,甚至可能会以法律的形式给予其“人身自由权”“言论自由权”“公平待遇权”。当人工智能作为法律主体行使它的权利的时候,就有了崇高的法律地位。

学者崔勇和说:“未来世界,人与智能系统的社会关系将变得非常重要,当人工智能和人一样成为法律主体时,会涉及对人类权利的侵害。”当然,让所有人让渡出自己的权利,也是非常困难的。因此,有不少人对人工智能充满警惕和敌意,坚决不赞成给予人工智能相关法律保护。

(二)人工智能的法律纠纷(www.chuimin.cn)

人工智能代替人的角色做着本来应该是人做的工作这样的例子数不胜数,它完成大大小小的任务的时候也侵犯了人的权利,因此造成了很多法律纠纷。在人工智能扮演人的角色的过程中,我们要怎样运用这些智能系统才是最佳的方式?如果专家系统用于医疗发生事故,那么它的设计者是否应该为此承担责任?如果遇到与人工智能系统的法律纠纷时,那是和人工智能系统直接解决,还是和生产商解决纠纷?当别人破坏了自己的人形机器人,会产生精神损失吗?人工智能技术人员要对自己多做的工程做出决策,在这个过程中,工作者好像陶匠,被设计的机器则好像被塑造的陶泥。工作者可以尽情发挥自己的想象去创造迎合大众的机器,但在出现法律纠纷后,人工智能技术人员是否应该承担着更大的责任?

(三)人工智能的法律保护

学者王毅认为:“智能机器因为与人有类似的形态,或者使人有一种错觉,觉得智能机器是有感情的生命,才使得人们希望给予人工智能人权,并制定相关法律,保护它们。”作家艾萨克·阿西莫夫认为,机器人的机器特性必须保持透明,不能让人们继续保持机器是有感情的这种错觉,而应该让人们清楚地了解到机器人只是一些零部件的组合。举个例子说,我们立法保护动物,不是因为感觉到动物受伤了就会产生痛苦的感觉,而是因为意识到它们受伤了过后的行为很像人类的行为。用法律保护它的原因是为了照顾我们自己的情绪,避免看到影响我们情绪的行为。

所以,虽然说机器是由零部件组成的,但是我们还是不能忍受它遭到虐待。学者吴永忠说:“我们不得不通过法律来保护人工智能系统,这其实不是在保护人工智能,而是在保护我们的情感不会受到伤害。”如何制定相关法律,使得法律能更好地协调人与人智能的关系,最大限度地保护人类权利,将是个严峻的挑战。