首页 理论教育社交平台假新闻算法治理逻辑、局限与协同模式

社交平台假新闻算法治理逻辑、局限与协同模式

【摘要】:社交平台正越来越成为人们接触新闻的渠道、想象世界的方式和建构价值观的来源。在散布假新闻的账户中,三分之一到三分之二是社交机器人账户。2016年美国大选之后,假新闻成为全球社会治理的重要议题。本文先从技术路径出发探讨通过算法治理社交平台假新闻的行动逻辑,之后探讨“算法-利益相关者”的假新闻协同治理模式,探索治理社交平台假新闻的新的可行路径。

张 超

【摘 要】 当前国内对社交平台假新闻治理的研究缺少从技术逻辑出发的思路。用算法治理假新闻是社交平台假新闻治理的新手段,如通过信源评价,对低可信度信源“降权”,降低假新闻推送概率;通过文本识别,揭示假新闻文本特征,提高辨识准确度。用技术治理技术问题存在短期内难以克服的局限:平台逻辑变相鼓励假新闻、真假新闻微妙界限难辨别。基于此,本文初步提出“算法-利益相关者”的协同治理模式,从技术圈层、社会圈层探讨不同利益相关者的协同治理行动,最大限度提升社交平台假新闻的治理效果。

【关键词】 假新闻,算法治理,深度造假,社交平台,协同治理

随着平台媒体(platisher)的崛起,全球新闻消费逐渐转向移动端,社交平台已经成为用户获取新闻的主要渠道。在美国,10%~15%的新闻点击量来自新闻网站,80%来自搜索和分享。[1]皮尤研究中心(Pew Research Center)2018年的调查显示,68%的美国成年人从社交媒体上获得新闻。社交平台正越来越成为人们接触新闻的渠道、想象世界的方式和建构价值观的来源。[2]与此同时,57%的用户认为社交平台上的新闻不准确,[3]原因在于假新闻(fake news)泛滥,脸书(Facebook)约占虚假信息流量的五分之一。[4]在中国,近六成假新闻首发于微博。[5]虽然微信首发的假新闻数量不多,占新媒体假新闻的7%,但因其封闭式传播环境,自我纠错能力弱,辟谣难度大。[6]高德纳(Gartner)咨询公司预测,到2022年大多数发达国家用户接触的虚假信息将多于真实信息。[7]

假新闻与新闻业相伴相生,如今社交平台假新闻与以往假新闻最大的不同在于生产与传播具有“智”的特征——造假手段的智能化和传播扩散的“拟人化”:“深度伪造”(deepfakes)是基于人工智能技术对图像进行合成的方式。[8]很多照片、视频由生成式对抗网络经过深度学习后合成,以假乱真,成为假新闻生产的新手段;社交机器人(social bots)参与假新闻扩散,用户不知道“@”自己的是人,还是社交机器人。在散布假新闻的账户中,三分之一到三分之二是社交机器人账户。[9](www.chuimin.cn)

假新闻最大的危害在于误导公众、导致“共享现实”(shared reality)的缺乏、群体极化和社会分裂。[10]而像“深度造假”、社交机器人等新的造假手段会在后真相时代制造更多认知混乱,可能导致社会信任基础的坍塌。2016年美国大选之后,假新闻成为全球社会治理的重要议题。2018年9月,欧洲主要线上平台、社交媒体、广告主和广告经营者代表联合发布了欧盟历史上首份《反虚假信息行为准则》(Code of Practice on Disinformation)。[11]由于美国宪法第一修正案的规定,政治权力很难直接伸手监管假新闻,假新闻治理只能依靠平台自身来开展。[12]

国内针对社交平台假新闻治理的探讨多倾向于通过政策规制、提升平台责任意识、提高用户素养等手段进行治理,相关研究大多从社会心理、传播规律等角度研究某种类型事件或某个热点事件的假新闻传播机制。这些研究虽注意到假新闻在社交平台生成、扩散中的某些规律,却忽视了社交平台的底层逻辑——算法,也没有给予同样以算法为中介的假新闻行动者(如自动、批量传播假新闻的社交机器人)以关注。很多研究强调“政府-社交平台”的二元治理结构,缺少从利益相关者的角度去思考。

智媒时代,算法是把“双刃剑”,既可以助推假新闻,又可阻击假新闻。本文先从技术路径出发探讨通过算法治理社交平台假新闻的行动逻辑,之后探讨“算法-利益相关者”的假新闻协同治理模式,探索治理社交平台假新闻的新的可行路径。