FB等社交平台极端主义言论盛行,“打标签”是否必要

FB等社交平台极端主义言论盛行,“打标签”是否必要
2020年05月29日 08:50 新浪科技

  新浪科技讯 北京时间5月29日上午消息,据外媒报道,正是Facebook自家的算法推荐才导致Facebook平台上极端主义内容的盛行,而Facebook高管自2016年就了解此事,但并未采取有力的措施。

  《华尔街日报》本周二发表了一篇文章,报道了Facebook自2016年以来抗击极端化的努力。这篇报道基于Facebook内部文件,以及对现任和前任员工的采访,详细地描述了Facebook是如何通过各种途径来阻止平台上分裂内容的传播。但在许多情况下,Facebook却拒绝了致力于解决该问题的员工们的建议。

  文章称,在Facebook上加入极端组织的人群中,超过60%是因为Facebook的算法推荐所导致,包括高级副总裁乔尔·卡普兰( Joel Kaplan)在内的Facebook高管自2016年就知道该问题,但却扼杀了解决这一问题的努力。

  文章指出,Facebook在2016年进行了一项研究,发现该平台上的极端主义内容和团体的比例高得令人担忧。Facebook研究员兼社会学家莫妮卡·李(Monica Lee)当时在一次演讲中称,超过1/3的德国大型政治Facebook群组存在大量极端主义和种族主义内容。

  莫妮卡·李还发现,当Facebook用户加入极端主义组织时,近2/3(64%)的时间是由Facebook的算法推荐的,这意味着该网站自己的推荐系统在社交媒体用户中“加剧了极端主义问题”。

  文章写道:Facebook在2018年的一张幻灯片上写道:“我们的算法利用了人脑对分裂的吸引力,如果任其发展,Facebook将向用户提供越来越多的分裂内容,以努力获得用户的关注,并增加在平台上的停留时间。

  解决这种极端化问题是非常困难的,需要Facebook重新考虑其一些核心产品。其中最值得关注的是,该项目迫使Facebook考虑如何确定“用户参与度”的优先顺序。“用户参与度”是一项涉及停留时间、点赞、分享和评论的指标,多年来一直是其系统的指路明灯。

  对于上述描述,首先要说的是,“极端化”可能意味着很多事情,这可能会让关于Facebook在这个问题上的贡献的讨论变得困难。从狭义上讲,可以谈论充满党派情绪的新闻推送(news feed)可能会导致国家分裂的方式。同时,也可以将其作为一个笼统的术语,来谈论Facebook和其他社交网络最近所称的“平台完整性”相关的举措,例如,消除仇恨言论,或者给错误信息贴上标签。

  关于“极端化”要说的第二件事是,虽然它有很多负面影响,但需要考虑的是,你提出的替代方案是什么。如果你是一家科技公司的CEO,那么这个问题就会涉及到“对抗”极端化的挑战:即使你把它视为敌人,也不清楚你会用什么标准来团结你的公司来应对它。

  不管怎样,Facebook对《华尔街日报》的这篇报道反应非常沮丧。负责相关事务的Facebook高管盖伊·罗森(Guy Rosen)周三发表了一篇博客文章,列出了该公司自2016年以来为对抗“极端化”所采取的一些措施。

  这些措施包括改变新闻推送,使其包含更多来自朋友和家人的帖子,而不是出版商的帖子;启动一个事实核查计划;通过机器学习系统和内容审查队伍,更快地检测仇恨言论和其他恶意内容;从算法推荐中删除违反Facebook政策的群组。

  罗森在这篇博客文章中称:

  我们已经采取了许多重要的措施,来减少可能在我们的平台上导致极端化的内容数量,有时是以牺牲收入为代价的。这项工作永远不会结束,因为归根结底,网络话语是社会的延伸,而网络话语又是高度极端化的。但我们的工作是减少极端化对我们产品体验的影响,我们正致力于做到这一点。

  据Facebook内部Workplace上的一篇帖子,Facebook对这篇报道感到沮丧的原因之一是,Facebook花了“几个月”的时间与《华尔街日报》的记者讨论这一发现。Facebook让公司多名高管进行公开和非正式的交谈,其中包括负责全球公共政策的卡普兰。

  不管怎样,关于这篇报道和Facebook的回应,有两件事值得一提。首先,Facebook对极端化的看法存在内部紧张。其次,要求Facebook解决分裂(极端化)问题,可能影响Facebook解决其他问题的注意力,包括阴谋论、错误信息和仇恨言论的病毒式传播。

  关于内部紧张问题,一方面,文章所描述的Facebook与极端化作斗争的举措都是真实存在的。在过去的几年里,Facebook在平台完整性方面投入了大量资金。而且,正如一些Facebook员工所说的那样,Facebook有充分的理由不去实施团队提出的每一个建议。

  例如,有些努力可能没有已经在实施的其他努力那么有效,或者它们可能会产生意想不到的负面后果。显然,团队中的一些员工觉得他们的大多数想法没有被采用,或者被淡化了。但许多公司的许多团队都是如此,这并不意味着他们所有的努力都是白费的。

  另一方面,Facebook的高管在很大程度上拒绝接受,该平台在分裂国家层面上存在极端化的观点。事实是,在许多大国,Facebook在那里的使用率很高,但极端化正在减少,这有助于解释为什么Facebook高管没有把这个问题放在首位。

  因此,这样一个案例表明,Facebook在平台完整性方面可能是“正确的”,而《华尔街日报》在更大的层面上是正确的:Facebook被设计成一个公开讨论的场所,人性导致了这些讨论往往会激烈和两极分化,而Facebook选择了相对宽松的方式来管理这种分化。之所以这样做,是因为高管们认为,世界受益于喧闹的、几乎不受限制的讨论,也因为他们不相信这些讨论正在分裂国家。(李明)

新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片