首页 理论教育审判机器人中的法律错误及其应对措施

审判机器人中的法律错误及其应对措施

【摘要】:法律错误指犯罪人误解法律或不知法律的情况。根据这一标准,法律错误应当是尽管采取所有合理措施也无法避免的错误。因此,法律错误的一般标准高于事实错误。法律错误抗辩适用于人工智能系统的重要意义在于,其并不局限于任何形式的法律限制,而且人工智能系统会据此行动。如果先行设计,该系统或许能搜索法律限制条件,但并不一定会有所发现,这便成为适用法律错误一般抗辩的案例。

就刑事责任而言,能认为人工智能系统会犯法律错误吗?法律错误指犯罪人误解法律或不知法律的情况。该一般抗辩背后的主要理念是,一个人因不知具体禁令而实施犯罪,那么就不存在追究刑事责任所需的过错。但是,犯罪的心理要素并不包括了解禁令。

例如,强奸罪要求的心理要素是犯罪意图,这包括犯罪人对“未经女性同意与其发生性行为”具有意识。该犯罪并不要求强奸犯知道“强奸是受到禁止的刑事犯罪”。只要对事实要素要件具有意识,便能满足强奸罪的心理要素要求,不管强奸犯是否知道强奸是受到禁止的行为。考虑到对社会日常生活的预期,大多数犯罪的法律情形皆如此。[409]

如果将犯罪人必须了解禁令的要求作为追究刑事责任的条件,那么我们可能会鼓励犯罪人不去学习法律,因为只要他们不知法律,便能免除刑事责任。如果不将这一要求作为条件,那么我们就能鼓励公众查询法律,了解法律,并遵守法律。这些预期性考虑因素并不完全符合刑法的过错要求。所以,刑法试图在公正、过错要求以及关乎社会日常生活的预期性考虑之间寻求一种平衡。

最初,我们倾向于预期性考虑。罗马法规定,不知法律不能成为实施犯罪的借口(不知法不免责,ignorantia juris non excusat)。[410]直至19世纪,大多数法律体系都遵循上述通用路径。[411]但是,19世纪开始,刑法中的有罪性要求获得了巨大发展,因此,在法律错误和有罪性要求之间建立一种平衡变得十分必要,即要求所犯的法律错误必须出于善意(bona fide),[412]并能反映心理要素的最高状态,即严格责任。根据这一标准,法律错误应当是尽管采取所有合理措施也无法避免的错误。[413]

这一最高标准的法律错误是所有类型的犯罪的要求,无论该类犯罪的心理要素要求如何。因此,法律错误的一般标准高于事实错误。在此情形下,法院要审查的主要问题是犯罪人为了避免犯法律错误是否采取了一切合理措施,包括合理信赖法规、司法判决、[414]法律官方解释(包括初步裁决)[415]以及私人律师建议。[416]我们的主要问题在于,法律错误的一般抗辩是否适用于人工智能系统。

从技术层面而言,如果相关实体(无论是自然人还是人工智能系统)能够满足严格责任犯罪的心理要素要求,那么该实体也应该能够主张法律错误的一般抗辩。如上所述,因为强人工智能系统有能力满足严格责任犯罪的心理要素要求,[417]所以,它们也能适用法律错误的一般抗辩。通过审查载明人工智能实体的知识记录,可以证明该实体对特定问题缺乏法律知识,因此也符合善意要求。

法律错误抗辩适用于人工智能系统的重要意义在于,其并不局限于任何形式的法律限制,而且人工智能系统会据此行动。如果人工智能系统包含可以搜索此类限制的软件机制,即使启动该机制也未发现任何法律限制,那么一般抗辩依然适用。但是,注意,系统免于承担刑事责任并不代表系统的程序员或用户也无需承担刑事责任。如果上述人员原本可以限制系统仅从事合法活动却未能成功,如上所述,他们可能需要对机器人的犯罪行为承担间接正犯的刑事责任或可能的后果责任的刑事责任。[418]

例如,人工智能系统收集有关某些人员的事实数据,并应根据这些数据分析这些人员的性格,最后在特定指南里出版相应结果。可能出现一种情况,即出版行为能被视为刑事诽谤(criminal libel)。如果系统记录表明其不受任何关于诽谤出版物限制条件的限制,系统或者未包含任何搜索此类限制条件的机制,或者确实存在该搜索机制但未能发现这种限制条件,那么,该系统就不应对诽谤罪承担刑事责任。系统的制造商、程序员和用户可能需要作为间接正犯或者对可能的后果承担刑事责任。

一个人工智能系统可能知识广博,但却不一定了解每项法律事务的法律知识。如果先行设计,该系统或许能搜索法律限制条件,但并不一定会有所发现,这便成为适用法律错误一般抗辩的案例。如果法律错误对自然人和人工智能系统的影响在本质上和功能上完全相同,那么没有任何理由让法律错误的一般抗辩只适用于自然人,而不适用于人工智能系统。所以,似乎法律错误的一般抗辩能够适用于人工智能系统。