首页 理论教育用算法治理社交平台假新闻的局限

用算法治理社交平台假新闻的局限

【摘要】:表1社交平台假新闻的算法治理1.分享的“马太效应”:平台逻辑变相鼓励假新闻社交平台假新闻泛滥,不在于制造假新闻的算法多么高明,而在于假新闻的传播逻辑契合了社交平台的算法逻辑和商业逻辑。换言之,社交平台喜欢有分享潜力的文章。在社交平台上,新闻必须是可分享的,新闻越激进,社交媒体上的分享就越多。2018年8月,脸书表示将禁止经常分享假新闻,且禁止反复违规的公司在其平台投放广告。

社交平台假新闻的两个算法治理逻辑各不相同(见表1)。斯坦福大学纽约大学和微软研究院的研究表明,自2016年美国大选到2018年7月,脸书用户的假新闻参与度下降超过了50%。[30]用算法治理假新闻会有一定效果。技术不是完美的人工物,用技术治理技术问题同样存在短期内难以克服的局限。

表1 社交平台假新闻的算法治理

1.分享的“马太效应”:平台逻辑变相鼓励假新闻

社交平台假新闻泛滥,不在于制造假新闻的算法多么高明,而在于假新闻的传播逻辑契合了社交平台的算法逻辑和商业逻辑。社交平台的算法推荐逻辑强调社交关系、分享、点击和相关性。如脸书强调信息与用户之间的相关性与适用性。[31]这种算法逻辑会导致流量的“马太效应”:越有吸引力的文章分享越多,越多的分享带来越多的流量,分享和流量到一定程度就会完成文章的冷启动,进而快速进入推荐系统,带来更多分享和流量。没有吸引力的内容,算法系统不仅降低推荐概率,甚至连冷启动阶段都完成不了。只要假新闻有足够的吸引力,在社交平台进行病毒式传播是早晚的事。平台开发者最初考虑的主要是传播速度和广度,在事实辨别方面存在设计漏洞。[32]因此,社交平台假新闻屡禁不止的关键原因在于假新闻的传播与算法设计中的激励机制相一致。[33]研究显示,推特上的假新闻比真新闻传播快,链条也更深深:1%的假新闻会到达1 000~100 000人,而真新闻很少能达到1 000人。[18]换而言之,无论社交平台的算法如何调整,都只能从一定程度上改善以“分享” 为核心的算法推荐逻辑。

商业逻辑是流量与广告费成正比,广告商为每次的点击付费,社交平台与账号用户(网站)分成。换言之,社交平台喜欢有分享潜力的文章。于是一些人大肆制造假新闻,他们不关心党派之争,关心的是流量和变现。一些社交平台宣称自己不是“媒体”,而是“平台”,抽身于内容监管之外,让商业利益最大化。脸书前产品管理副总裁萨姆·莱辛(Sam Lessin)曾说:“为了获得市场份额,你需要激进,理性不会帮你得分。”在社交平台上,新闻必须是可分享的,新闻越激进,社交媒体上的分享就越多。[34]

在巨大的舆论压力之下,谷歌和脸书终于相继推出了断绝假新闻“财路”的措施。2016年11月,谷歌禁止假新闻网站使用其广告服务。2018年8月,脸书表示将禁止经常分享假新闻,且禁止反复违规的公司在其平台投放广告。由此看出,对于社交平台的这种逻辑“缺陷”,一些平台希望借用经济的方式治理以商业性为目的的假新闻生产与传播,但对以政治利益或其他非商业利益的假新闻,经济手段是无效的。(www.chuimin.cn)

2.算法不会思维:真假新闻微妙界限难辨别

当前人工智能还处于弱人工智能(Artificial Narrow Intelligence,ANI)阶段,只能处理特定任务,没有独立的意识。这一阶段将持续相当长一段时间。假新闻文本的内容是复杂的,需要依靠专业知识、社会经验、话题语境、语义理解等多方面的技能才能拥有极高的辨识准确度。弱人工智能显然达到不这一层面。

首先,不是所有的指标都可以“数据化”。例如,“误导性”如何编码?人类难以界定,人工智能想理解这一点,还有很长的路要走。[35]

其次,算法是无法理解人类语言和知识的。人类的语言是微妙的,由于算法无法理解语言,所以在算法中,分类常基于语言模式和其他简单信号,这可能会让算法将真、假新闻一并归类。[36]此外,算法也无法理解人类知识。当算法面对宗教哲学等抽象知识时,无法像人类一样会意,或辨识其可信度。[22]

最后,假新闻的特征千变万化,对其模式特征的识别也需要因应变化。只要假新闻在原来的基础上发生一些改变,原识别算法的适用性就成为问题。例如,用写作风格作为识别手段的算法被广泛采用,造假者也会适当改变写作手法以蒙混过关。[22]

虽然研究显示算法比人类鉴定者更准确、更有效,但24%的失败率表明人类仍在捕捉恶作剧故事中发挥重要作用。[24]假新闻打击平台“假新闻挑战”(Fake News Challenge)认为:除非我们已经拥有达到了人类水平的AI,能够理解微妙而复杂的人际互动,并进行调查性新闻报道,那时才有可能自动核查。[37]