她用8年时光,揭开了互联网的隐秘一面
这篇书评可能有关键情节透露
2017年12月7日,加利福尼亚大学洛杉矶分校的一间会议室内,100多名参会者聚集在一起,共同参加一个名为“审核面面观”的公共研讨会,这是美国境内召开的首次关于互联网商业性内容审核的研讨会,为期两天。
这100多位参会者中,有来自联合国的特别报告员,有以劳工诉讼为专长的律师,有来自《卫报》《华尔街日报》、路透社等媒体的记者,还有学生、社会活动人士、行业代表、智库人员,等等。
7日早晨,大学附近的贝莱尔街区刚刚发生了一场火灾,距离校园不到800米,但这丝毫没有影响参会者们的热情。而这一天的会议也非常特殊,因为当天会议的报告人并非专家或记者,而是两名以真实身份实名演讲的互联网审核员。
尽管几年来,媒体上已经有了多篇关于互联网内容审核的重要曝光文章,但都是新闻记者基于匿名采访所撰写的报道。而那些从事具体内容筛查工作的审核员,仍然处于一种不可见的“失声”状态。
在以科技创新和表达自由著称的美国,互联网内容审核一直是一个隐藏于幕后、长期被遮蔽的机制;而那些每日承受互联网丑恶肮脏的一面、被互联网巨头公司压榨蔑视、遭受网民谩骂侮辱的审核员群体,也不为社会公众所知。他们身份卑微、工作隐秘,还跟雇主签订有严格的保密协议,成为在互联网繁荣之下默默付出的“幕后之人”。
而在“审核面面观”的会议上,两位“幕后之人”终于走到了台前,公开讲述她们从事的审核工作,分享她们的见解和经历。
两位审核员的到来,让“审核面面观”研讨会的组织者莎拉·罗伯茨兴奋异常。作为加利福尼亚大学洛杉矶分校的教授,莎拉是互联网文化、社交媒体、数字劳动等领域的专家,而她最广为人知的成就,便是率先在美国开启了关于互联网内容审查的研究,并创造了“商业性内容审核”这一术语。
2010年,莎拉在《纽约时报》的一篇短文章中首次知晓了互联网内容审核的存在,这篇报道让她极为震惊,“在将近20年时间里,身为一个重度网民、信息技术工作者和互联网研究者,我从来没有听说或者想象过这种有组织、有偿的内容审核工作。”
平静下来之后,莎拉决定投身到对这一行业的研究之中,一段为期八年的田野调查就此开启。
2019年,莎拉·罗伯茨的《幕后之人》由耶鲁大学出版社出版,这是英文世界第一部有关互联网商业内容审查的人类学研究专著。2021年,《幕后之人》又推出了一个增订版本,加入了有关菲律宾马尼拉内容审核员的一章,极大地扩展了这一研究所触及的范围,将商业性内容审核扩展到了全球化知识劳动的大背景中,揭示了西方殖民文化和互联网全球化生产链所造成的负面影响。
复杂的内容审核模式
在启动这项研究之时,莎拉·罗伯茨最早的一个重要发现就是:社交媒体的审核工作横跨多个行业,有多种不同的运作模式、就业状况和工作环境。在《幕后之人》的第3—5章,莎拉·罗伯茨通过对内容审核员的匿名访谈,详尽地展现了大型科技公司、小型专业公司、零工平台和海外呼叫中心四种模式的内容审核机制,以及审核员们的社会待遇、身心健康、日常生活、职业发展等。
在第3章,莎拉访谈了为大型硅谷互联网巨头MegaTech工作的三位内容审核员,虽然用了化名,但从字里行间的细节(攀岩墙、工牌颜色)不难推断出,MegaTech就是一直以“不作恶”为座右铭的Google,三位审核员是为Google旗下、全世界最大的视频平台Youtube从事审核工作的。
三位审核员均毕业于美国的精英名校,他们虽然凭借内容审核的岗位进入了MegaTech,但却并非正式员工,而是与人力派遣公司签署临时劳动协议的合同工,合同期只有一年,一年服务期满后要么另谋出路,要么强制休息三个月,之后才有资格续签一年合同;而当合同再次期满后,他们就必须离开公司。另外,他们自然也无权享受MegaTech的诸多福利,包括医疗保险在内。
三位审核员的日常工作就是审核那些被用户举报的视频,其中绝大部分都含有暴力、色情、血腥、令人不适和侮辱性的内容。由于待审核的任务量巨大,他们每天要审核1500—2000个视频,整个审核过程均通过对10—40张缩略图的鉴别来完成,几乎没有太多的科技工具可以使用。终日面对大量的不良内容,导致这些审核员在心理和生理上均受到了巨大的伤害。
然而,由于担心讲出自己的工作经历会对他人(比如朋友和家人)造成负担,他们不愿意分享自己面对不良内容时的经历和情绪反应,而是将它们藏在心里,无法向他们的伴侣、朋友和熟人寻求心理支持。
“你在公司里做什么?”“噢,我审核那些令人厌恶的内容,色情内容。”他们会觉得这很有趣,所以你会简单地总结说:“是啊,我整天都在看黄片。”如果是说:“是啊,我整天都在看血淋淋的东西。”他们就会觉得:“噢,真令人失望。”我不会讲太多工作的细节……他们只对内容感兴趣,对你审核的内容感兴趣。所以我只能告诉他们这么多,或者我会告诉他们这份工作的待遇。你真的不会想讨论这份工作,自己已经在泥潭之中待了八个小时,不会想在工作之外还要讨论它。即使和同事一起,我们也不会讨论任何与工作相关的话题。我们不说……并不是因为它们会造成心理创伤。只是,我说不太好,大概是你不愿意把自己的负担转嫁给别人。 ——《幕后之人》,第103页
除了审核员们所遭受的身心伤害以外,《幕后之人》也揭示了MegaTech 的内部政策在全球事件和政治立场中的变幻无常,这些审核政策在政治上是以美国为中心的,因此,选择保留或删除某些内容的过程,很容易变成默许或公开支持美国外交政策的过程。
我们以非常弹性的方式对待中东的视频,却不需要以同样的态度对待其他国家的视频。比方说,墨西哥正在发生毒品战争,两边阵营都有不少人上传战争视频,比如谋杀、绑架和讯问之类的。如果这些是叙利亚的视频,我们会保留它们,内容一模一样。我是说,原因不同,但内容是一样的,有冲突的双方,从各个方面来看都是一样的内容。但他们给我的理由是:这些内容不具有新闻价值。可这是毒品战争啊!……给人的感觉是他们在执行双重标准。 ——《幕后之人》,第89页
与此同时,MegaTech的内容审核也会重点考虑品牌管理和品牌保护的需求,通常由高层管理团队下达指令,这种品牌管理不仅能使MegaTech免受批评,还能使它的合作伙伴和大批用户免受负面宣传的影响。商业性内容审核的这个职能,便可以被视为一种“公关”。
内容审核也并非全无成就感,例如,当审核员通过自己的上报、干预抓获某个罪犯、解救一个被绑架的儿童、阻止一次自杀之后,他们也会觉得自己的工作能够有少许价值。然而,借助审核员之口,莎拉·罗伯茨表达了这样一个深刻的洞察:社交媒体本身就有可能导致一些人产生抑郁情绪,以及自杀的想法。
我们团队在看到人们留下的自杀信息时,会非常积极地进行干预……根据主管部门的反馈,在大约 800 个自杀视频里面,我们成功阻止了 9 起自杀。但不管怎样,这是 9 条人命……但同时,我们是 MegaTech,也许公司本身就是很多人想要自杀的导火索,这一点是他们很少提及的。有些人觉得自己受到了欺凌,但他们也感觉到,他们之所以受到欺凌是因为我们的网站。比如我们没有处理好某些辱骂性的评论 ——《幕后之人》,第95页
洞察社交媒体的一块重要拼图
有一次我问马克斯·布林,他能否想象一个没有员工从事审核工作的 MegaTech 公司。“不能,”他回答说,“那样的话,平台上就全部会是色情视频。(笑)全部都是。那可就是一场灾难。很不幸,审核工作必须要有,不进行审核是不可能的。但做这件事情没有太好的方法。” ——《幕后之人》,第115页
一个没有内容审核的互联网是什么样的?
恐怕绝大多数普通用户都难以想象,他们所使用、接触的网站和社交媒体,已经是一个经过了人工“净化”的数字空间。但在接触了大量互联网原始内容的审核员们看来,如果允许用户在网络空间毫无约束地自由发言,那么网络上就会充斥着各种辱骂和仇恨言论、与主题无关的评论和垃圾内容,导致绝大多数网民无法正常地使用这些网站。
我真心觉得有 90% 的在线论坛用户并不想进行任何对话。他们就没这个想法。他们只想把心里的话喷出来。如果被骂得狗血淋头,他们会兴高采烈地继续喷下去。我觉得在现实中他们不会这样说话,因为如果在现实中也是这样,就会有人会拿着一块肥皂追着他们打。我知道很多人都有这样的想法,觉得在这些论坛里可以想说什么就说什么。 ——《幕后之人》,第148页
然而,内容审核这条“防护堤”,并不能完全阻止不良内容和攻击性言论的产生和存在,审核员们经常会感觉到自己的能力有限,无法带来任何改变,这让他们陷入了深深的沮丧和无助。审核员们缺少足够的权限和控制力,一旦身份暴露,还更容易成为受人攻击的对象,毕竟,他们的干预行为一直要在用户的表达自由和互联网良性言论空间之中保持微妙的平衡。
人工智能与审核
如果说人工审核所面临的许多难题都无法在短时间内解决,那人工智能呢?在《幕后之人》出版的时候,像ChatGPT这样的人工智能尚未问世,而到了2023年,在ChatGPT火爆全球的背景下,商业性内容审核这一行业又会有什么变化?
很多人认为:以ChatGPT为代表的人工智能,很有可能会胜任大量的工作岗位,逐步取代人类——“神奇”的人工智能让人类产生了巨大的危机感。
但《时代》杂志在年初发布的一项调查报道,揭示了ChatGPT开发过程中,其开发者OpenAI动用第三世界国家的劳动力进行人工内容审核的一段隐秘往事。
根据这篇报道,在ChatGPT的前身GPT-3在开发过程中,调用了互联网上数千亿单词的语料,但由于这些语料中存在大量的恶意、不良内容,使得GPT-3在经常会输出暴力、性别歧视和种族主义言论。为了调试出可以大范围推广的人工智能,OpenAI需要额外训练一个能够识别有害内容的AI模型,并将其内置到ChatGPT之中,以便在这些不良内容到达用户之前将其过滤掉,并从人工智能的训练数据中把有害文本集中清除。
构建这个AI模型,自然需要包含有害内容、进行类别标注的训练数据,为了获得这些标注数据,OpenAI以每小时不到2美元的价格,外包了一批肯尼亚劳工来进行数据标注的工作。这些标注员每天的工作就是从OpenAI发来的大量文本中,标注出包含性、暴力与仇恨言论的内容,他们每天工作9个小时,需要阅读并标注150—250段文字。而这些文字中的大部分内容都极其恶毒、黑暗,详细描述了性虐待、暴力、酷刑、谋杀、乱伦等情节。在标注这些数据的工作过程中,很多标注员都遭受了极大的心理创伤。
“神奇”的人工智能,依然要依靠最基础、最廉价、最低微的人力来孵化训练。正如《幕后之人》中所述:
“人工智能什么时候才能拯救我们所有人?我们还有很长的路要走。”