互联网最“脏”的活,却有几十万人在做

2023-07-30 02:50:00 生活常识 投稿:浅时光

在2017年创变者年会上,吴晓波发表了关于“变化”的主题演讲,他称互联网既像天使、又像魔鬼。

的确,互联网给我们带来了意想不到的便利,足不出户获得新闻资讯,打开App就能享受到线下服务。个人的观点、情绪,弱者的发声、表达都可以在互联网平台上传递。

然而,色情、暴力、极端组织言论也在互联网上有了出口,并加速了传播,网络监管的压力也在逐渐变大。

于是,一个新的群体诞生了,他们从事着互联网上“最脏的活”。

网络清道夫

Facebook最初的理想是让这个世界变成一个统一的社区,打造一个“全球性社区,让任何人都可以分享任何东西”。

多年来,扎克伯格坚持认为,Facebook既然只是个连接世界的平台,本质上是家科技公司,就不该对在这个平台上发布的内容负责。

近两年,Facebook也因为这一理念带来的后果饱受争议,甚至被告上法庭。

在2017年12月,Facebook、Google、Twitter都对外宣称,已经引入了事实核查,加大力度研发算法,同时聘请更多的专业人士加入。

但实际上,算法和专家背后,还有许多普通人在对抗着世界的阴暗面。

1)鉴黄师

去年,导演HansBlock和MoritzRiesewieck拍了一部纪录片《TheCleaners》揭开了人工审核的遮羞布。

纪录片以菲律宾的首都马尼拉为背景,在马尼拉市中心高档的写字楼隔间里,显示屏上打出明晃晃的亮光,投射在内容审核员丹尼斯的脸上,各种生殖器的照片她已经见怪不怪了。

她要先学习英语里各种有关下半身的脏话、俚语,然后要对男女的人体构造研究透彻,对人类诸多的变态癖好吃个通透。

下了班,还得去趟成人用品店,熟悉熟悉最新上市的成人用品,了解千奇百怪的硅胶玩具,来决定平台上的这些图片和视频,是删除,还是保留。

在普通人眼里,这似乎就是互联网的“鉴黄师”,上班时间看着平时都难以搜索到的禁片,领着工资。

而实际上,多数内容审核员因为看了太多的成人图片,已经严重影响到自己正常的性生活。

并且,“鉴黄师”也只是内容审核中较基础的一项。

2)儿童内容审核

除了“色情”审核外,审核儿童相关内容的工作人员,需要承受更强烈的冲击。

他们每天都会看到那些对孩子施虐、色情的照片、视频,最小的孩子不过5岁。

在一些战乱地区的视频和图片里,总会有手无寸铁的孩子躺在地上,或者赤身裸体地奔跑。

审查员也不知道该选择还原历史真相,还是根据规定把这些过于裸露的图片的删除,一般来说,他们会选择后者。

至于那些对孩子进行侵犯的内容,没有工作人员愿意去看完,但审核工作要求必须完整浏览后给出评判。

当工作人员表示无法坚持看下去的时候,团队负责人会劝说这是你的工作,要坚持下去,并且告诉她签了合同。

这位姑娘在纪录片的最后,放弃了这份工作,她宁可回到穷困的老家,和父母一起捡垃圾。

3)暴力、恐怖组织

更痛苦的,是审核极端恐怖主义内容审查员。

他们面对的是一段段从Facebook网络端传来的恐怖组织的处决视频。

那些杀人的视频,如果只是枪击,算是轻松的。但这类内容里,更多的杀人手段,是斩首。

“被害人跪在镜头前,行刑者蒙着脸,对着镜头宣读一通罪状。在欢快的民族音乐里,行刑者掏出刀,对犯人进行斩首。”

如果斩首时用的是大砍刀,那就是刀起头落。如果行刑者拿的是小匕首,斩首将是个漫长的过程。审查员已经可以通过伤口的平整度,判断暴徒用了什么刑具。

审核员说:这对每一个观看者来说,都是一种酷刑。

谁在从事这份工作?

每一分钟,YouTube有500小时的视频,Facebook有250万条信息,Twitter有45万则推文在上传。

在海洋般的信息流中,恐怖主义、虐杀、自残、色情、极端组织言论、政治宣传夹杂在网友的猫咪和美食照片里面,谁来负责清理这些垃圾信息?

1)劳动密集型产业

据不完全统计,各大科技公司的内容审核员工都来自第三世界国家或是不发达地区。其中,在菲律宾的外包内容审查员人数超过了10万人。

YouTube、Google和Facebook等科技巨头都会建立双重审核制度,一是通过人工智能和算法进行首层审核,接着是通过建立在东南亚的外包公司来进行人工过滤。

作为一项庞大的劳动密集型产业,大多数人受到保密协定的约束,他们的工作直面互联网的黑暗角落:过滤暴力、色情、恐怖内容,他们被称为“网络清道夫”。

在成为审查员之前,这些人需要经过三到五天的上岗培训,培训的内容,例如记住37个恐怖组织——他们的旗帜、制服、口号。

通过类似这样的培训,审查员上岗并化身成为道德天使,通过机械又辛劳的工作,使人们相信对社会的美好想象。

在培训中,外包公司会告诉审核员们会看到什么,需要用到什么工具,以及会产生什么后果。

不少审核员会心生退意,这时候组长会对他们进行劝说,并且告知他们已经签了保密协议。

保密协议中要求不能透露他们为谁而工作,如果违反了保密协议,他们就会失去工作并面临10000美元的罚款,甚至牢狱之灾。

并且,Facebook和Google并对外宣称,他们没有在马尼拉的员工。事实上,马尼拉的审核员的薪资也的确不来自Facebook或者Google,而是外包的公司。

2)内容审核员的独白

内容审核员就像阻击手,目标是那些违反了应用程式规定的用户。

“我做了六年的内容审查员,每天必须浏览25000张图片。”

在记录片中,被采访的审查员自述道,清理脏东西,是他们唯一的职责,确保没有任何可疑的内容上传在平台上。

他们同时也会对这份工作产生自豪感:“如果我们少工作一小时,那互联网就会一团糟。”

Facebook在2017年的遭遇也印证了这句话:一名泰国男子放出了他杀害11个月大的女儿,然后自杀的视频。

这段视频引起了全世界的一片哗然,并在社交网络上保留了近24个小时,这让Facebook成为众矢之的。

所以,Facebook的内容管理员也从2017年的1万人,增加到2019年的3万人。

张一鸣也在去年提出强化总编辑责任制,不断强化人工运营和审核,将现有6000人的运营审核队伍,扩大到10000人,天津似乎也成了互联网“审核之都”。

目前,新浪、头条、网易、陌陌、豆瓣、搜狐等都在天津设立了审核专员职位,不少公司在济南和成都也有设立审核中心。

在招聘网站中,网络信息审核员这一职位的平均工资在4-6千元左右。

互联网最“脏”的活,却有几十万人在做

相比我国,纪录片中出现的审查员时薪仅有1美金。

美好愿景的话术,实际低廉的工资,同时还有心理问题的出现。

由于外包公司们未配有相应的心理咨询师和审核员们每天看大量的暴力色情内容,他们的心理健康极易受到影响。

在审查员论坛上,还有更多骇人听闻的视频,包括虐待妇女、儿童和动物。有人表示他们每看几个视频就得休息一下才能缓过劲儿来。在日积月累的病态工作下,审查员们渐渐麻木,丧失了对人类的信心。

人就是机器,机器就是人。

“当我离开公司时,我已经三年没有握手了,因为我发现人们很恶心。”

Bob说,

“世界上大多数正常人都他妈的是怪人。当我离开那里时,我对人性感到厌恶。我的很多同行也遭遇同样的事情,我们都认为人性太可怕了。”

在纪录片中,一位负责审查自我伤害的员工,在看过海量的自虐视频后,不堪重负,在一个晚上选择结束自己的生命。

为什么离不开人工审核?

回归到内容审核本身,不少人都会质疑,为什么在技术如此发达的今天,还需要如此大量的人工审核。

1)算法误判

今日头条在去年3月份的时候出品了一个反低俗微信小程序“灵犬”,是国内首款反低俗信息小程序。

基于今日头条反低俗算法模型,用户只需输入文字(10个字以上)或者图片就可以检测信息的健康程度,并给出结论此信息是否可以获得推荐。

比如输入“你饿不饿我下面给你吃”,输出的健康指数为19%,被鉴定为“这里有问题”。

互联网最“脏”的活,却有几十万人在做

文字信息对机器来说还相对容易,图片和视频在技术上会有更大难度。目前,“灵犬”小程序还不支持检测视频。

比如我用艺术作品“断臂维纳斯”的图片检测,机器通过识别图中人物的皮肤裸露面积,就会认为是色情低俗的;而某些拍摄芭蕾舞的图片,以机器的视角来看,会类似于裙底偷拍。

互联网最“脏”的活,却有几十万人在做

Facebook就曾经因为“裸露”,误删了一张著名的越战新闻照片,内容是一位小女孩遭到汽油弹炸伤、浑身赤裸奔跑,事件发生后引起了美国新闻界的巨大争议。

2)内容难以界定

离不开人工的一个更重要原因是,涉及政治的内容机器难以直接处理,此类内容一旦出现问题将造成严重影响,必须交由人工进行审核判断。

甚至很多时候,人工也不知道是该还原真相,还是“净化”网络环境。

如果发生误删,也可能会引发霸凌,伤害一个或者更多的生命。

所以,在AI的背后还是近万名审核团队在辅助审核,去做算法无法做到的事情。

结语

在纪录片中,被采访的审查员冒着被罚款、牢狱之灾的危险说到:

“我为什么愿意接受采访,因为我们想要人们知道,我们的存在,有一群人在检查社交媒体,我们正在尽最大努力,让大家能安全使用这些社交平台。”

写这篇文章的原因,也是想让大家知道,在科技的背后,还有他们的存在。

如果说互联网的初衷是让这个世界没有信息的不平等,任何一个信息都可以无障碍地到达全世界的任何地方。

那不可避免地存在极端宗教主义、恐怖组织、负面的声音。毕竟人类的多样性在哪里,人类对自我追求的冲突就会在哪里。

但至少,我们应该对他们致上最深的谢意。

来源:运营研究社

声明:犀牛文库所有作品(图文、音视频)均由用户自行上传分享,仅供网友学习交流。若您的权利被侵害,请联系admin@qq.com