首页 理论教育算法失控原因及解决:贸大法学

算法失控原因及解决:贸大法学

【摘要】:问题的解决还需要回到外卖送餐系统中的人工智能技术本身。[7]第二,认为人工智能算法的内部决策过程难以被外部观察者察觉,构成了“算法黑箱”,因此具有不透明、不接受审查和无须解释的特点。换言之,就是作为开放和使用主体的外卖平台对智能算法进行公开,对其运行逻辑进行解释,并正面接受、采纳骑手的反馈,修正系统的不足。

问题的解决还需要回到外卖送餐系统中的人工智能技术本身。目前,人们对人工智能技术的理解,特别是基于深度学习模式的人工智能,存在两个误区。第一,认为人工智能技术由于知识的前沿性和技术的复杂性,与非专业领域的普通民众之间具有不可逾越的“知识鸿沟”和“技术屏障”,无法为后者所理解。[7]第二,认为人工智能算法的内部决策过程难以被外部观察者察觉,构成了“算法黑箱”,因此具有不透明、不接受审查和无须解释的特点。[8]而通过阅读和研究,笔者认为,首先,人工智能技术及其所依托的信息技术原理具有可解释性,真正的技术性屏障仅在于编程人员将基于人类语言的生活逻辑转化为可被电脑解读的代码逻辑的“翻译”过程,其原初逻辑可以由设计者向一般大众说明和解释。其次,算法黑箱之喻与其说是对算法特质的描述,不如说是人为构建的结果。相比于外国推广的“开源运动”,国内厂家更倾向于打造封闭算法,这一方面是对其商业秘密的自我保护,另一方面也是一种巧妙地掩盖失误、规避审查的手段。

进行上述分析后,我们再回到依托智能算法的外卖平台系统上,“困在”系统里的外卖骑手们所面临的问题从技术层面是可解的。目前来看,外卖平台的智能算法对骑手们享有“单向话语权”,即:以原初设计逻辑和数据库作为支撑,通过源源不断的现实数据进行自我训练、学习,并不断优化,但这种算法决策可能因多种原因存在漏洞,甚至是“歧视”。由于平台和算法都没有为使用者(骑手)提供反馈和修正的渠道,因此智能算法实质上构成一种封闭的内循环运算系统,单向地对使用者享有决定和支配的权力。破解这种困局的方法有二:开放源代码和进行说明解释。换言之,就是作为开放和使用主体的外卖平台对智能算法进行公开,对其运行逻辑进行解释,并正面接受、采纳骑手的反馈,修正系统的不足。但这一操作面临法律层面的问题,即由谁对平台提出上述要求,又基于何种理由平台需要遵守上述要求(假设平台并不自发性的进行公开—解释—修正,事实证明也是如此)。显然,缺乏议价能力的骑手群体无法做到这一点,最可能提出上述要求的只有政府。但政府具有何种权力、以何种理由要求私主体公开信息,则需要进一步论证。关于私人公司掌握的信息是否应该向大众公开,Alfred C.Aman和Landyn W.Rookar撰有“Private government and the transparency requirement deficit”一文,对此加以深入探讨,其核心观点在于信息是否需要公开不宜由其制作主体决定,而是由其内容决定,并主张通过订立民事契约的方式规定私主体何种信息需进行公开。[9]简言之,随着私主体以日益重要的角色参与社会建设、分享社会权力,其收集、掌握或制作信息对社会生活产生重要影响,因此需要在一定程度上进行公开并接受审查,Alfred C.Aman和Landyn W.Rookar主张政府通过与私主体订立民事契约的方式,规定后者涉重要公益信息的公开范围和程度。笔者认为这种方法在处理外卖平台智能算法失控问题,对私主体算法提出透明性要求和可解释性要求时,不失为一种可供借鉴的路径。具体而言,对于具备一定“公共性”的外卖平台算法而言,[10]可以通过行政机关(例如享有行政主体资格的交通管理部门)与平台订立协议的方式,规定算法向公众公开并解释其原理,接受社会监督。如涉及商业秘密,则可以将平台算法交由受委托的独立第三方机构进行审查,将平台算法置于政府监管之下,以确保算法设计的合理性。