随着接触互联网的人数越来越多,网上的内容也呈井喷之势,质量却愈发良莠不齐。全球多个国家和地区都出台了相关政策,要求网络内容提供商对平台上的内容负责,必须审核和删除违反当地法律的信息,比如暴力、儿童色情和恐怖主义内容。
作为当今世界上最大的几家互联网内容提供商,facebook、推特、谷歌以及旗下的 youtube 都面临着巨大的内容审核压力。他们的处理办法非常相似:招聘小部分全职内容审核员,将剩下大部分工作承包给第三方公司,由合同工完成。
知名外包公司埃森哲(accenture)和高知特(cognizant)都有类似的业务,其中埃森哲在美国德克萨斯州的奥斯汀市运营着谷歌最大的内容审核中心,里面的内容审核员全天候工作,负责清理 youtube 上的不良信息。
当然,从 youtube 上删除令人不安的内容不算完,还要从谷歌搜索等服务中删除它们。这需要公司内部多个团队协作,因此在谷歌总部还有一些全职员工从事类似的工作。
在大多数情况下,这些内容都由用户或执法机构举报,通常包含暴力、色情、虐待儿童和恐怖主义。
听起来不是什么美差,但比起程序员,似乎没什么技术门槛。如果谷歌给你 9 万美元的年薪,附加医疗福利和股票奖励,你愿意干吗?
外媒 the verge 记者 casey newton 对这些员工的工作内容和环境进行了深入调查。经过 5 个多月的资料收集,他采访了 18 名现任和前任员工,最终围绕两个代表性人物 peter 和 daisy 撰写了一篇长达 5700 余字的故事性报道,为外界刻画出了谷歌内容审核员令人堪忧的工作状态,以及这份工作可能对人造成的持续一生的影响。
以下是对 newton 报道的整理和编译,有删减和重新排版。
" 谷歌里最肮脏的工作 "
peter(化名)是奥斯汀办公室的一名内容审查员,每天的工作内容就是审核被放到队列中的视频。他的同事有数百人。
youtube 把他们分配到不同的队列中,比如和记娱乐ag旗舰版本下载的版权队列、仇恨和骚扰队列以及成人色情队列等等,称这样可以让审查员更好地掌握特定政策和内容的评判标准。
peter 被分配到了暴力极端主义队列中(violent extremism)。顾名思义,队列中充斥着极端暴力的视频,几乎每天都有斩首、枪杀和虐待的场面,可以算是 " 谷歌里最肮脏的工作 " 之一。
在过去的一年里,peter 看到了他的同事在工作时因巨大精神压力而崩溃,不得不休了两个月的无薪假期。另一名同事同样因为工作的压力罹患焦虑和抑郁,一度厌食到急性维生素缺乏而必须住院治疗。
(来源:the verge)
peter 本人从事这份工作已经快两年了,也开始担心自己为了工作而透支的精神健康,是不是类似的疾病总有一天也会找上门来。自从开始审核暴力极端主义队列中的内容,他发现自己开始脱发和增重,变得易怒,而且只要开车经过办公室,即使是休息日,他也会感到胸口难受。
" 每天你看到的都是某人被斩首,或者某人向女友开枪,"peter 描述自己的感受," 之后你会感到,我去,这世界真的太疯狂了。这会让你感到不舒服,感到生活中的一切都一文不值。我们为什么会对彼此做这样的事情?"
" 任何工作都可以 "
和审核极端暴力队列的其他同事一样,peter 是一个移民。
自 2017 年以来,埃森哲招聘了数十名像他一样会说阿拉伯语及其变体的人——他会说七种方言——大部分人都是从小在中东地区长大。公司需要依赖他们的语言能力,来准确识别和删除 youtube 上的仇恨言论和恐怖分子的宣传。
这种需求来自于 2016-2017 年爆发式增长的恐怖主义活动和视频。最具代表性的是恐怖组织 isis,其宣传视频以及策划的恐袭视频出现在 youtube 和 twitter 等平台上,迫使多个国家相继出台更严格的互联网内容审核政策,要求平台自我筛查不良信息。
图 | 对极端暴力的定义(来源:the verge)
peter 的家人知晓他的工作内容,也看出了他的变化,因此不断要求他辞职。但 peter 担心,以自己的能力可能再找不到这么高薪水的工作:18.5 美元 / 小时,年薪约合 3.7 万美元。(编者注:奥斯汀全职员工的最低薪水是 15 美元 / 小时)
其他员工有的是新移民,曾干过保安和送货司机之类的工作,然后从朋友那里听说了这份工作。有的则寄希望于用这份工作申请美国公民——一个在特朗普政府治下变得越来越难以实现的梦想。他们担心对媒体或上级反映这种情况,会让他们的移民之路更加坎坷,甚至可能丢掉饭碗。
" 我们刚来到美国时,没人认可我们的大学学历," 在奥斯汀内容审核小组工作近两年的 michael 表示," 我们必须开始工作,开始赚钱,任何工作都可以。"
能加入像谷歌这样的科技巨头(虽然本质上是埃森哲,但两家公司对外模糊了界线,而且邮箱后缀也是 google.com),是他们做梦也无法想象的。这些人最初都很感激谷歌能给他们机会。
(来源:pixabay)
" 我终于能在办公室工作了。我当时想到了各种机遇,想到了职业发展。"peter 回忆道。
然而直到入职参观,这份工作的真正性质仍然是模糊不清的。peter 称自己当时 " 根本不知道这是份什么工作,因为他们不会告诉你。"
根据员工的描述,埃森哲规定内容审核员每天上班 8 个小时,其中有 5 个小时用于工作,要处理 120 条视频,2 个小时用于 " 保证健康 ",会支付薪水,剩下 1 个小时是无薪午餐时间。
" 健康 " 时间的意义在于让员工放松身心。他们可以去外面散步,和公司内部的咨询师谈话,或者和同事玩玩游戏。
" 最开始的时候,一切都很好。如果你看到一些糟糕的东西,就关上屏幕休息一会。"michael 回忆称。
制度总是按照最理想的情况规划的,就像绝大多数工作一样。
当极端暴力队列变得异常繁忙的时候,通常是出现了恐怖袭击,员工的日常休息申请经常会被拒绝,而且还会面临基于视频时长的 " 绩效评估 "。他们的电脑被安装了计时软件,记录每天审核视频的总时长,但查询邮件或者日常例会等工作不会计入其中。
为了达成 5 个小时的目标,peter 和 michael 等审核员不得不牺牲一部分吃饭或休息的时间。在最忙碌的时候,一些员工的年假申请也不会得到批准。
随着入职时间越来越久,他们的其他自由也被削减和剥夺了。比如埃森哲不允许他们在座位上吃饭,不允许用私人手机,甚至不允许用纸和笔。他们称这些规定是出于 " 隐私考量 "。
颇为滑稽的是,埃森哲要求员工使用双重验证登陆工作平台,有时限的验证码会发送到员工手机上。这些人不得不抓紧时间冲向保险柜,查看自己的手机,背下来或者在手心上写下数字,然后锁上柜子,冲回座位上,在超过时限之前输入验证码。
更糟糕的还有停滞不前的薪水和随意更改的轮班时间表。" 如果你不按照他们(上级)安排的来做,他们有很多办法让你的情况变得更糟糕。"michael 解释称。
偶尔出入办公室的谷歌正式员工,与这些审核员形成了强烈的对比——更高的薪水,更全面的健康福利,更友善的上级,更大的自由——令他们羡慕不已。
peter 和一些审核员相信,更好的待遇会极大地减轻这份工作带来的沉重负担。
或许绝大多数人都这么认为。
" 这最差能差到哪里去?"
2015 年,daisy soderberg-rivkin 看到了谷歌的招聘广告,和大多数招聘广告一样,有关岗位的描述十分模糊。
据她回忆,这是一个名为法律助理(paralegal)的全职岗位,负责根据政府和法律要求删除谷歌搜索中侵犯和记娱乐ag旗舰版本下载的版权、名誉以及包含其他不当内容的链接,还明确提到 " 会审核某些包含虐待儿童图片的链接(每周时长会限制在 1-2 小时之间)",工作地点在谷歌山景城总部,年薪 7.5 万美元还附加健康福利和股票,算下来接近 9 万美元。
daisy 当时觉得自己不可能拿到这份工作的,但还是申请了。
经过八轮面试,谷歌面试官告诉她," 你将帮助支持网络言论自由,让互联网变得更安全。"
23 岁的 daisy 接纳了这种说法,也接受了这份工作。" 这可是谷歌啊,你有各种免费福利,还能睡在睡眠舱里。就算是偶尔让你看一些令人不安的内容,说实话,这最差能差到哪里去?"
入职之前,她没有任何精神疾病。入职之后,她也没有接受过相关的心理培训。似乎谷歌当时也不知道这项工作能 " 差到哪里去 "。
图 | 接受采访的 daisy(来源:the verge)
母语是法语的 daisy 被委以重任,负责法国地区的内容删除请求,按照法律、执法机构,以及谷歌政策和条款的要求审查链接内容,做出保留还是删除的决定。按计划发展下去,她将成为谷歌法国恐怖主义内容审核项目的主管,年薪超过 9 万美元。
让她意想不到的是,暴力的内容越来越多。
2015 年 11 月的巴黎恐袭和 2016 年 7 月的尼斯恐袭,让 daisy 的工作压力越来越大,而且是身体和精神上的双重压力。
大量恐袭现场的视频充斥在队列之中,有的在剧院,有的在大街上。惨剧发生之后的很长一段时间里,她每天都会看到很多遇难者的视频。
面对积压如山的视频,daisy 的经理希望她可以更快地工作。她也尝试这样做了,但不可避免地面临更长的工作时间,承受更大的生理和心理压力。
" 每天看到的就是队列中的数字不断增长," 她表示," 渐渐的,我的大脑似乎不再正常工作了,处理速度放慢了。"
" 我算是幸运的 "
恐袭视频已经足够令人不安,但更让 daisy 难受的是谷歌招聘广告上提到的" 儿童性虐待图片(csai)"。她审核这类内容的时间远超岗位描述所说的 " 每周 1-2 个小时 "。
鉴于查看 csai 内容是违法的,谷歌为审核员安排了一个名为 " 作战室 " 的特殊房间,供她在同事无法看到的情况下审核相关内容。
最初,谷歌设立了轮换制度。daisy 会在 csai 上工作大约三周,然后回归日常工作六周,循环往复。然而长期的人手短缺和高流动性让这项制度难以为继,她不得不长时间审核 csai 内容,就像是日常工作一样。
工作近一年后,daisy 的经理对她说:" 你处理队列任务的速度不够快,我们需要你提高生产力。"
她被激怒了," 你究竟要我怎样提高生产力?我是人,不是机器。每天看到儿童被强奸,人们被斩首,我的情感承受着巨大打击。"
和 peter 一样,daisy 身边的人也意识到了她的变化。她每时每刻都感到极其疲倦,情绪会出现剧烈波动,开始说梦话,做噩梦,在睡梦中突然尖叫,甚至突然的肢体接触都会让她联想到是不是有人要害她。
" 好像所有人性中的恶都潮水般向你涌来,而你无处躲避,然后还有人(经理)不断告诉你,‘你必须继续工作,面对它们。’ "
daisy 随后申请了带薪休病假,为自己过去一年的遭遇寻求心理疏导——她的一个同事就是这样做的。她当时认为,自己最多只需要 1 个月就能重新开始工作。
根据 daisy 的状态和描述,心理医生对她的诊断是创伤后应激障碍(ptsd)和慢性焦虑,必须服用抗抑郁药物。
治疗师还建议她养一条狗,训练它成为一只情感支持动物,在她出现恐慌等症状的时候起到提醒和缓解的作用。治疗犬还会陪着 daisy 去儿童医院跟小孩接触,恢复她和小孩相处的能力——她有时看到小孩会联想到视频中的虐待场景,出现焦虑和恐慌的症状。
作为康复治疗的一部分, daisy 的思维也得到了矫正。治疗师告诉她不要因为效率低而怪罪自己,因为 " 这不是你的问题,是他们(谷歌)的问题,他们要对此负责。他们创造了这份工作,就应该投入足够的资源。这当然很困难,但至少要尽可能地减少这种负面影响。"
六个月之后,daisy 才重新回到谷歌,但情况并没有多大改观,工作的性质,经理的态度和自己的感受都没有什么变化。
最终她选择了离开谷歌,继续读研。现在的她是一家智库的政策研究员,关注儿童隐私、儿童剥削和内容审查。
" 我希望过去的经历能够激发我改变未来的斗志,"daisy 强调," 我算是幸运的了。"相比埃森哲的 peter 和 michael,谷歌正式员工 daisy 的确算是幸运的。
只不过她的境遇也没有多好,六个月的带薪病假听起来很人性化,但如果没有内容审查工作造成的精神创伤,她又怎么会去休病假呢?
知之甚少
自 2017 年以来,facebook 和谷歌等公司纷纷加大平台上的内容审核力度。在全球范围内,仅谷歌旗下的 youtube 就有超过 1 万名内容审核员(承包商 全职)。
在过去的一年里,谷歌从博客,图片和云端硬盘三项服务中删除的极端暴力内容超过了 16 万例,平均每天 438 例。但无论是员工、公司,还是学术界,对长期暴露在令人不适的内容中可能对人类造成的长期影响都知之甚少。
很多人一开始都抱着跟 daisy 类似的心态,这工作有高额的薪水,全面的福利,偶尔看看令人不适的图片和视频,最差能差到哪里去?
在特定情况下,这种心态真的奏效了。
一个芬兰语内容审核员表示,自己的工作太无聊了," 有近两个月的时间每天无所事事,就是上上网,看看视频,删除一些不良评论 "。她最后因为无聊辞职了。
也有印度审查员表示," 我和同事都觉得这是一个轻松的差事,一个月还能赚 850 美元,没什么可抱怨的。我们可以在健康时间玩各种游戏,非常开心。"
显然,不同审查员的经历天差地别,原因在于他们负责的地区、队列和团队氛围差异巨大。
另外也有很多人,包括一些科技公司的高管,倾向于把这件事情看作是招聘问题:观看同样的暴力和虐待视频,有人能承担更多的精神压力,不当回事,有人却容易当场崩溃,所以面试时要选出那些精神承受能力更强的人。
但问题在于,这不像用跑步测试耐力那么简单。我们如何评估所谓的精神承受能力?如何知道合适的暴露水平?如何改变规则去适应突然增多的暴力视频?如何提供足够的工作资源?
这些亟待解决的问题迫切地需要雇主去尝试寻找和记娱乐手机版的解决方案。遗憾的是,这样的努力虽然存在,但似乎远远不够。
" 让所有人的互联网变得更安全 "
在谷歌奥斯汀办公室(实际上是埃森哲),peter 和 michael 调侃自己是谷歌的 " 小白鼠 ",不断替公司尝试新的制度。实际上,他们中的一部分人的确是 " 小白鼠 "。
今年早些时候,谷歌发表了一篇论文,名为 " 测试样式干预以减少内容审核人员的情感影响 "。文中描述了两项实验,均以公司审核员为实验对象。其中一个把彩色视频变成黑白的,另一个是默认将不适内容打码。
参与实验的员工是自愿报名的,实验为期四周,前两周看彩色视频,后两周看黑白视频。结果显示,黑白视频的确有助于改善审核员的心情。
图 | " 谷歌在全球为谷歌和 youtube 雇佣了 1 万名内容审查员 "(来源:the verge)
除此之外,我们更熟悉的是,科技巨头正尝试使用 ai 技术解决这一问题,开发可以自动识别不良内容的机器学习算法,希望有朝一日可以彻底摆脱大规模人力审核。
在 ai 水平远未达到人类期望的当下,依赖人力是无奈之举,却绝非长远之计。人们已经意识到,与 peter 和 daisy 类似的情况不仅过去出现过,现在正在出现,而且未来还将不断出现。
为 facebook、推特和谷歌承包内容审核的高知特(cognizant)近日表示,2020 年之后将不再提供内容审核服务。youtube 的 ceo susan wojcicki 也曾承认这是一个 " 真正的问题 ",表示要减少审核员每日工作时长到 4 个小时(但并没有成功落实)。
就连谷歌研究员都在论文中写道," 人们愈发意识到,从事这样的工作不得不长期或大量地接收令人不安的内容,除了令人不快以外,还会对员工造成重大的健康后果。"
但我们不得不面对的现实是,内容审核的需求量正在与日俱增。
既然如此,科技公司显然需要做出更大的努力,至少尝试一些立竿见影,甚至是亡羊补牢的行动。例如对出现 ptsd 症状的合同工一视同仁,每天保证足够的放松时间,减少审核员观看视频的时长,增加对患病离职员工的医疗帮助等等。
可以肯定的是,无论薪水有多么优厚,医疗保障有多么全面,补救措施多么到位,担任一名内容审核员都会对一个人的人生造成巨大改变。
在 daisy 离职两年后的今天,她还是会偶尔出现焦虑和恐慌,需要服用抗抑郁药物来安抚自己。而 peter 再也无法享受他曾经最爱的动作电影,因为里面的枪战和死亡画面都会引发联想,即使他告诫自己那些都是假的,也无济于事。
谷歌向刚入职的 daisy 灌输了崇高理想—— " 你们会让所有人的互联网变得更安全 ",但也许应该加上后半句 " 除了你们自己的 "。
说到底,只有你亲眼目睹一个场景之后,才能体会到忘记它有多困难。