首页   全球大事见闻     
“权力过大”,脸书正侵入全球敏感政治事务?
作者 徐蕾     来源 观察者网    发布 2018-12-30

【编译/观察者网 徐蕾】

每隔一个星期的周二早上,在脸书总部的玻璃会议室里,都会有几十个人聚在一起,讨论一些事关全球20亿用户的事情。

他们通过讨论,制定脸书审核机制的“指导方针”,然后下发到摩洛哥、菲律宾等国的外包公司7500名审核员手中(脸书最新数据为15000人),通过他们的手,决定全球用户什么能说,什么不能说。

《纽约时报》当地时间12月27日的报道揭秘了脸书1400多页的审核“指导方针”,其中的问题也暴露无遗。这一过程中,不管是制定者还是审核员,都对脸书用户所在的各个国家地区及其语言,知之甚少。

比如,某条规则搞错印度法律,甚至,侵入越来越多国家的政治。

“放任煽动性言论从而助长社会暴力”是脸书面对的最严重批评之一,其内容审核机制也因此格外受到关注。但这种不完美的方法所带来的偏见,也正是很多专家所担心的。

“权力过大”,正侵入全球敏感政治事务

│脸书如何监控每天超过100种语言,数以亿计的帖子?

正如文章开头描述,脸书的审核是靠几十人制定的规则作为指导的。报道称,他们大多是年轻的工程师和律师,试图将高度复杂的问题提炼成简单的规则:对或错,是或否。

一名脸书员工向《纽约时报》提供了1400多页的《规则手册》。他说,他担心公司权力过大,监管太少,已经犯了太多错误。

│《纽约时报》检查这些文件发现,里面有许多漏洞和偏见。而审核人员对这些规则的严格遵守,使该公司成为了全球言论的有力仲裁者,这种权力远远超过了一所公司本应拥有的。

尽管这些指导方针非常详细,但对于打击“极端主义”或虚假信息来说,最多也只能算是“最佳猜测”。报道称,它们正导致脸书侵入全球敏感的政治事务,有时显得很笨拙。

│在美国,脸书禁止了一个支持特朗普的极右翼组织“骄傲男孩”(Proud Boys)。同时,一则由特朗普的政治团队制作的煽动性广告也被禁止了,该广告是关于一群中美洲移民的。

特朗普推特转发该广告,广告内容后被指责与事实不符

在印度方面,脸书则犯了个有些好笑的低级错误。有一项关于印度的指示告诉审核员,任何贬低宗教的帖子都违反了印度法律,应该被删除。但是法律学者指出,脸书搞错了,印度法律只禁止在某些情况下贬低宗教,比如说话人打算煽动暴力的时候。

│同时,审核员被警告称,忽视违规行为可能会导致脸书在印度被封禁。

另外,在被指责加剧了缅甸的种族灭绝之后,几乎所有接受《纽约时报》采访的脸书员工都表示今年春天,脸书禁止任何正面提到缅甸极端种族佛教保护联合会“玛巴达”(Ma-Ba-Tha)的内容。因为自2014年以来,这个组织一直利用脸书煽动针对穆斯林的暴力活动。

但缅甸的一些活动人士感到困惑,他们说,几个月后,支持该组织的帖子仍然很普遍。报道称,罪魁祸首可能是脸书自己的规则手册。缅甸的仇恨言论规则指示审核员不要删除支持“玛巴达”的帖子。脸书只是在回应《纽约时报》时才纠正了这个错误。

│另外,有一次脸书员工关闭了缅甸高级军事官员的账户,但脸书一开始没有通知缅甸政府。这导致被禁官员以为他们遭到了黑客攻击。有议员认为这次小插曲加剧了昂山素季与缅甸军方之间的不信任。

在巴基斯坦7月大选前不久,脸书向其审核人员发了一份40页的文件,概述了巴基斯坦的“政党、预期趋势和指导方针”。

审核人被要求对宗教党派“伊斯兰贤哲会”(Jamiat Ulema-e-Islam)进行额外的审查,却将另一个“伊斯兰大会党”(Jamaat-e-Islami)描述为“温和的”。这份指导方针还警告审核员,不要采取任何可能“对脸书声誉造成负面影响、甚至使公司面临法律风险”、“引发公关大火”的行动。

报道认为,脸书作为竞选期间的讨论中心,这样的做法会影响讨论。

│审核员做着本应属于法官的工作,还需求助谷歌翻译

脸书的政策在会议室中诞生,但是执行却是在摩洛哥或者菲律宾等地区的外包公司中,由他们的审核员进行。

脸书说,审核员有充足的时间审查帖子,没有绩效要求。但是审核员们表示,他们每天要审查大约1千条内容。每条审查时间是8-10秒,视频的时间会更久一点。也就是说,在这不到10秒的时间里,审核人员需要在脑子中过滤一千多页的规则,做出判断。

对一些人来说,薪酬与速度和准确性挂钩,很多人只干了几个月。其中一人表示,在审核过程中发现规定存在缺陷时,他们没有什么动力去联系脸书。就制度本身而言,脸书主要让雇佣这些审核员的公司进行自我管束。

报道称,规则手册是为英语使用者编写的,因此这些审核人很多不会说帖子上的当地语言,他们有时候要依赖谷歌翻译,但谷歌翻译并不可靠。毕竟,理解当地环境对识别煽动性言论至关重要。

一位审核员说,如果没有人能读懂帖子的语言,就批准任何帖子,这可能助长了某些地区的暴力行为,比如缅甸。虽然脸书表示这样的做法是违规的,但其对这些外包公司几乎一无所知,由于还要依赖这些公司来在其他地方扩张,脸书也难以控制它们。

此外,控制煽动性言论的另一个障碍可能是脸书本身。该公司的算法倾向于推广最具煽动性的内容,有时是脸书希望压制的那种内容。

│《纽约时报》表示,脸书试图把那些连法律专家都可能纠结的问题简化为一刀切的规则,比如什么是令人讨厌的想法,什么是危险的谣言。

脸书认为这些文件只是用于培训,但审核员说,它们被用作日常参考资料。单独来看,每个规则可能都有意义。但从整体来看,就不一定了。

哈佛大学研究网络极端主义的专家乔纳斯·凯瑟(Jonas Kaiser)说,一家科技公司划定这些界限“极其困难”,“它让社交网络做出判决,而在传统上,这是法院的工作。”

芝加哥大学研究印尼政治的萨娜·贾佛里(Sana Jaffrey)说,禁令是一种捷径。它要求审核员找到一个被禁的名字或标识,这要比让他们判断什么政治观点在什么时候是危险的,要容易得多。但这意味着,在亚洲和中东的大部分地区,脸书禁止代表社会重要阶层的强硬宗教团体,相当于在辩论中关闭了一方。

│此外,脸书的决定往往会偏向能够对其进行罚款或监管的政府。

报道称,在公司总部,最根本的问题仍未得到解答:什么样的内容会直接导致暴力?脸书平台什么时候会加剧社会紧张?

但如果不充分了解平台的影响,大多数政策只是对出现问题的临时反应:员工们做了一个调整,等着看会发生什么,然后再做一次调整——就像在飞行中途修理飞机一样。

(原标题:脸书如何审核全球20亿人说什么?几十人制定规则外包7500人执行)


2018-12-30点击数/观注度 1970
 
咨询电话 13910949198 (李桂松)
北京市平谷区中关村科技园区平谷园1区-21594(集群注册)
京ICP备16017448号

京公网安备 11011302003178号

技术支持