网络审查员

剧情片德国/巴西/荷兰/意大利/美国/日本/英2018

主演:内详

导演:汉斯·布洛克  MoritzRiesewick  

播放地址

 剧照

网络审查员 剧照 NO.1网络审查员 剧照 NO.2网络审查员 剧照 NO.3网络审查员 剧照 NO.4网络审查员 剧照 NO.5网络审查员 剧照 NO.6网络审查员 剧照 NO.13网络审查员 剧照 NO.14网络审查员 剧照 NO.15网络审查员 剧照 NO.16网络审查员 剧照 NO.17网络审查员 剧照 NO.18网络审查员 剧照 NO.19网络审查员 剧照 NO.20
更新时间:2023-09-27 00:48

详细剧情

从脸书公司的网站中,清除“不合时宜”内容的内容审查员,人称“清洁工”。本片首次独家披露网络审查作业的真实现状,描写社交媒体所存在的风险,还揭露了审查作业对“清洁工”造成精神创伤的事实,并聚焦世界各国...

 长篇影评

 1 ) 我们能看到的互联网世界是经过了他们修剪的,而他们赚1美元的时薪

这部纪录片真的非常值得看完了之后进行深思:

我仅敢列出以下的几个点供大家思考,而不敢自己妄下结论。

1.网络SC员通常被外包给第三世界国家的员工,差不多时薪为1美元。

2.长期成为网络SC员,精神上会受到长期的负面影响,因为黄色和暴力信息长期影响人体的身体健康。有的人为此而患上严重的精神疾病。有的人甚至宁愿捡真实世界的垃圾,也不愿意再干这个活。

3.如何鉴别信息不良不止是一个法律问题,有的时候还涉及到哲学上的争辩,比如电影中提到的例子:萨达姆被杀的过程与萨达姆尸体的影像之间的区别。

4.即使专家有的时候也很难做出选择,而这些审查员每天则要做出25000次选择,而其中如果漏判3次的话,就会失去工作。影响他们的是数量和绩效。 这是否导致SC员都会趋向于保守呢?

5.实际上我们现在看到的互联网就是,网络SC整理干净之后的互联网。而真正完整的互联网,可能只有审查员看到了。

6.我们也在用自己的键盘塑造着互联网。

7.互联网公司在各别国家和地区,可能要与这些政府达成协议的话,这样的行为究竟是该被定义为一个影响言论自由还是仅仅只是遵守当地法律的行为呢?这个问题本身还是很值得深思。(顺便提到,The Good Fight S03E08中就出现了一个例子,有一个律师就是利用好了这个争论,从而能够从互联网巨头身上敲上很大一笔竹杠,当然他并不是为了真的将这个话题在法庭上能够进行准确定义,而是为了能够对这个话题进行争论,并且利用媒体的报道对互联网公司进行公关方面的巨大压力,从而能够获得大笔的赔偿金。)

 2 ) 《网络审查员》:视角和人物选择

这部纪录片采用三个视角贯穿全片来进行对比分析,是比较全面且多角度的——一个角度是该片的“主角”,即网络审查员;另一个角度则是针对于裸体与艺术、恐怖主义与人道主义等等一系列网络审查员面临的伦理问题,跟网络审查员意见相左的一些群体,他们处于不同的立场,共同构成了这一视角;第三个角度则起到了一种推动情节发展的作用,或者说不算一种角度,因为这一视角并没有什么立场,只是从美国几大科技公司的听证会上,我们能从回答中看到科技在如今的网络环境中扮演的角色,同时反复插播科技公司的听证会画面与网络审查员面临强大的精神压力形成对比,暗示了这种外包制度的不合理和科技公司的不负责任。 在人物的选择上,我们看到影片着墨最多的是几个审查员,他们有的出身拾荒者家庭、有的需要照顾自己刚出生不久的孩子、有的带着预防者的高度责任感却最终走向辞职,这几个审查员的形象主要是靠自白和工作画面得以完整展现的。在处理一段段的影片时,他们往往会给出处理的根据,但是这个根据并不是绝对标准,也因此与另外一群人产生了观点对立。一段影片,两种观点,代表着对立方的人物由此出场,他们可能是艺术家、摄影师、记者或者是普通的公民。出于对自由表达的追求、对人道主义的关怀、对真相的执着、或者仅仅是对当政者的反对之声,这些人都指出,自己要表达的内容被删除是不应该的,他们指出网络审查制度的不合理之处,也让我们思考网络审查员的标准是否有些过于主观。这些反对者的设置其实丰富了作品的视角,赋予了本片辩证性和批判性思考的空间。这些诉求不同,却都因审查制度而受到影响的人们,恰恰丰满了本片的人物塑造,从反面提出网络审查员们面临的矛盾和挣扎。

 3 ) 冲击性内容才会深刻 深刻才是表达 所以绝对具有重要的含义

“我觉得这项工作本事的存在就是一个秘密” 冲击性内容具有其绝对重要的含义这不仅仅关于ylzj的范畴 我是支持一定限度的审查许多不适内容对价值观未建立的小孩来说是很有破坏力的但一定是有限度的而我们是没有限度的除此之外任何言论都应该允许存在否则你是在歧视民众的受教育程度而受教育程度是你决定的这个电影应该使用中国社媒的素材不能因为“因为你是一时的不冷静而说出的不严谨的话就煽动的仇恨情绪导致最终却mz受害”而否认ylzj的重要性你认为你很道德你是在助纣为虐

 4 ) 问题在于

像fb这样的垄断型大企业,你说他搞审查是完全出于对使用者身心健康着想,才偷偷摸摸在第三世界国家录用这么一大批低学历打工者负责审核,我是完全不信的,这里不可能没有经济利益和政治立场的考量。

毕竟我在推特和脸书看到的关于中国的很多视频,有些比较血腥暴力色情的,他是没有删除的,你能说他们一点政治立场都不站吗?如果在脸书,一个内地的和台湾的骂起来了,内地的被举报会被封号,台湾的毛事没有,你说这里面没立场吗?我踏马是完全不信的。

抛开政治不谈,只看有没有权利审核。我觉得权力这个事,和脸书等媒体的垄断地位是分不开的,他的规模太庞大了,全世界都在使用,除非你不用。他当然没有资格审查,没有资格替别人的大脑做决定该怎么思考,但是一个垄断性大型私企,不是普通使用者能控制的,那就变成他怎么说怎么有理,你没办法。

脸书这类大型垄断媒体自认为可以审核使用者,但是,谁又来监管他们呢?谁在为他们站台,他们背后有没有被谁操纵?我们都不知道!!!!

 5 ) 数字防波堤

我的职责是防止不道德视频的扩散,好比是防波堤。必须遏制罪恶在社交媒体上扩散。

网络审查员,社交媒体的“清洁工”,日复一日地重复着高强度的工作。按照一定的指标,定时定量审阅、翻看各式文字信息、图片和视频。一般情况下,他们会签订不可外泄工作内容、工作情况的合同。换句话说,是在大众视野中“不存在”的职业。

网络审查的意义及局限

网络审查如同防波堤修筑,一方面,它阻止了常规意义上的违法信息(如涉及政治敏感话题、情色等内容的图片、视频)在社交网络平台、互联网空间上传播;另一方面却永久地改变了互联网的生态环境,对合理诉求范围内的自由表达、资源信息共享和完整程度造成了一定程度的损害。

网络审查,能够使平台监视发布内容并作合理化处理,包括防止儿童色情物品的扩散、察觉恐怖主义活动于未然、防止网络霸凌等。在目前的认知范围内,以及网络审查员们所接受的培训中获取的信息一样,这是有益于网络平台建设、为大众提供尽可能美好事物的工作。

但网络审查常规情况下分为发布前的审查和举报后的审查,一个可能削减用户体验,一个可能导致不良信息漏审漏查。因此在这种情况下,需要在人工智能识别的基础上,投入大量人力资源。局限也因此不可避免。

运营公司作为企业,其经营目的难免不以赚取利益为主。这也是为什么在像土耳其一样严格限制了Facebook、Twitter、YouTube等网络巨头的功能和内容后,各大公司依然不肯放弃此国市场一样。因此在相互妥协的情况下,就会增大网络审查力度的加大。同时由于不同地区国家对于敏感信息的定义不同,所以同一个视频、一张图片可能会被公司做上IP地址的屏蔽,来满足市场需求。

土耳其对互联网内容的审查非常严格

而协助完善网络审查的,是各个有着不同价值观但是却有着类似培训经验的人们。他们在平台、外包公司背后,进行着形形色色内容的审查,决定是应该“忽略”还是“删除”相关内容。虽然有着基本的规定,但也会因个人判断而产生对同一内容的判断出入。而上层决策者与基层执行者之间的断层,也会成为审查内容限制不一的原因之一。

对工作人员作出的判断,上司并不完全掌握。为评估审查员业绩而挑选的样本数量只占整体的3%。这就是业绩评估的现状。
数据流量峰值绘图
企业有意识地对用户发布内容进行裁量取舍,这一倾向逐年明显。他们利用了我们贪图轻松不胜其烦,不愿付出努力的弱点。或许为时已晚,但若长此以往,我们本来具备的批判性思维的能力、克服困难的能力都会衰退。对言论自由设限,也就是对挑战精神和奋斗精神设限,如果不允许刺激社会,今后人们所能获得的信息量将越来越少:尖锐意见、挑战性表达方式都将从网上销声匿迹。如此我们的社会很难称得上是丰富多彩的社会。
联合国言论自由特别报告员,戴维·凯伊在纪录片中说道。

而这一现象,恰恰很有可能造成人们批判性思维的逆向打压,通过身边熟悉的事物,一点点地增多门槛,最终促成个人、平台在日常表达上的自我审查。最终哪些是正确的,哪些是可以发布的内容,都已经无法判断了。

初版诞生于1985年的《娱乐至死》,早已预见到,在信息碎片爆炸化的时代下,娱乐业的发达也会对人们健全思维的形成产生一定的影响。(虽然本书的观点有一部分比较偏激,但叙述中的可信服的还是存在)“娱乐至死”时代下的自我审查,无疑是社会进步的巨大绊脚石。

而纪录片中指责的承担这重大责任和社会意义的互联网公司,在相关领域的审查作用微乎其微。不仅无法为每天饱受各种图片、视频折磨的网络审查员足够的心理后盾支援,还在部分市场起到了消极的带头作用。透过各家网络审查员的叙述,我们可以窥到现状的轮廓:在可以无拘无束地片面、自由表达自己观点的今天,好的结果是赚取流量,成为网络红人;坏的结果顶多是发布内容的删除和帐号的封停。(在部分国家或地区)

贯穿影响现代人生命的互联网的影响力日渐提高,网络审查员的工作个体差异性太大且得不到保障。随着人工智能等科技的进一步发展,和“当代网络审查员”经验的积累,不久的将来,或许不会是硅谷“智者”们所期待的那样。

 6 ) 科技确实存在偏见,偏见就是它实际追求的一个目标,那个目标就是什么才能得到最多人的关注,什么才能吸引数十亿人

内容审查员就像是一名狙击手,我们的目标是违反应用程式规定的用户。 我妈妈总是告诉我,如果不好好读书,就只能跟她一样当个拾荒者,他们依赖捡垃圾为生,这是他们唯一知道的谋生方式。我害怕自己将来只能留下来跟着捡垃圾,这也是促使我用功念书的一个原因。 2016年1月,我画了一张男性器官很小的川普画像,叫做“让美国再次伟大”,它立刻爆红,数百万人在许多社群平台上疯传,几天后川普在竞选辩论中提到自己的器官尺寸,我记得有朋友打电话告诉我说,是你让川普在辩论中透露他的器官大小吗。 作为内容审查员,你必须要有原则,是你在决定人们是否该看到某张图片,所以头号重大错误就是批准裸照、 和女性胸部、男性器官,这没有容忍的余地。 一个虚构的作品,它并不暴力,也无关性爱,它只是一个人的裸体配上川普的脸,不懂为何人们会觉得人的裸体这么恶心。 这工作真的不好做,但最后却成了带罪恶感的乐趣,感到罪恶是因为我居然在看这样的东西,乐趣是因为我现在很享受看到的内容。 脸书基本上就是一家科技公司,有许多工程师经营,它重视自家产品,重视公司设施,它重视发展规模,重视用户体验,但它不是一家媒体公司,它不会考虑到内容或内容创作,或是内容编辑和审查的事,这些事并不在它的基因里面,只要脸书碰到有人说,“嘿,你们要为这内容负责的时候,他们的答复会是,‘哦,我们只是搞数学的,我们只负责写演算法,去提供你们想要的东西,我们不干涉编辑’”,但政治现实是在川普之后,在英国脱欧之后,这样的说法已经不行了,我们现在在一个点上,只要大众不接受现状,在某些点上政府就会立马介入,我认为脸书是了解这情况的。 YouTuBe一直希望能够跨越国界,因此从2007年左右,我们遭遇许多被封锁的情况,当土耳其政府不知如何与你取得联系时,他们索性关闭你在该国的服务。我们花了一段时间才弄清楚,是什么令他们感到不舒服,我们最后终于设法掌握了令他们不开心的特定影片,其中有些是关于凯末尔,有些则是他们声称违反土耳其法律的恐怖主义影片。我记得有一天我在凌晨两点,审查令土耳其政府感到不快的67个影片,从中做出哪些应该删除,哪些应该留下的决定,有个重点是对于一些影片来说,它们其实没有违反社群准则,所以一般不会从平台移除,可是却触犯了土耳其的法律,所以我们决定对土耳其用户采取IP位置封锁,土耳其用户将无法看到这些影片,我不喜欢这种解决方式,但这就是我们的做法。 街上聚集了许多了不起的人,警方在这里部署的人数相当多,我很好奇他们会在这里待多久,因为我知道只要他们一撤离,人们就会开始干架。 一些左派人士认为你政治不正确,我们这群人拥有枪支、子弹,受过训练,只要我们开始开枪射杀,我相信所有的赃东西很快就会消失。 人性归人性,而科技就只是种中性工具,并没有助长任何东西,但事实并非如此,因为科技确实存在偏见,偏见就是它实际追求的一个目标,那个目标就是什么才能得到最多人的关注,什么才能吸引数十亿人,成功转移他们的注意力,并且保持下去。 这项工作会损害你的大脑,让你觉得暴力是正常的,让你认为杀人,轰炸是正常的。 我不能让影片影响你,但这因人而异,有些人就是会受到画面的影响。 我突然自己,为什么要做这份工作,只是为了让人们认为上网是安全的,事实上在你的日常工作中,上处都是危险,我们在奴役自己,我们应该从麻木中觉醒,因为这并不安全,我们应该正视现实。 选择希望而非恐惧这需要勇气,期许我们可以建立比过去更加良好的环境,你必须乐观的认为你可以改变世界,我们投身其中,每一次都是一种联系,每一次都是一种创新,日复一日,日复一日,这就是为什么我认为我们一起投入的工作,现阶段比以往任何时候都重要。

 7 ) 【转载】信息“擦洗工”、事实核查员……那些卡在人工与智能夹缝的新兴传媒人

原作者 全媒派 2018-10-24 仅供学习交流

信息“擦洗工”、事实核查员……那些卡在人工与智能夹缝的新兴传媒人 qq.com

9月,加州女子Selena Scola一纸诉状把Facebook告上了法庭——因为看了过多暴力、血腥和色情图片,她患上了PTSD(创伤后应激障碍)。Selena是Facebook合作的第三方Pro Unlimited的内容审核员,负责删除Facebook上“剧毒、不安全、有害的内容”,包括色情、暴力、仇恨言论等。

对于PTSD,维基百科的解释是“指人在经历过性侵犯、战争、交通事故等创伤事件后产生的精神疾病”,常见于遭受重大打击后导致的精神创伤。然而,在互联网时代,没有性侵,也没有战争和交通事故,因视听感官长时间遭受刺激产生的伤害,不亚于物理刺激造成的精神损害。

新技术带来了繁荣的互联网产业,随之也诞生了新工种,内容审查员是其中的代表之一,除此外,还有事实核查员、论坛版主、合作伙伴经理等,他们的生存与困境成为了网络时代的缩影。

内容审查员与PTSD:隐匿的信息“擦洗工”,无处安放的焦躁

社交网络上,一头是梦想家用技术缔造的开放盛世——用网络建设一个连接世界的地球村,另一头的人躲在盛世的影子里,把好最后一道关卡——鉴定并删除变态的视频,这一点,人力比机器做得好多了,至少在当下是如此。

或者更早以前的论坛时代,版主们也担任着这个角色,但他们的规模和工作量远不如社交网络时代。据报道,仅Facebook一家,内容审查员的数量就达到了7500人。这些人甚至不是Facebook的员工,只是被第三方雇佣来的廉价劳动力。

2014年,《连线》杂志发表了一篇调查报道《社交网站上不为人知的隐匿职业:信息“擦洗工”》。担任“擦洗工”的廉价劳动力多分布在东南亚,他们可以拿着“美国水平”的工资,代价是“直面人性的恶”。

YouTube在美国本土雇佣的审查员要求更高,需要对东南亚员工审核过的视频进行二次过滤,公司许以YouTube的工作场所、办公福利等条件,甚至承诺转正机会,Facebook条件也是如此。

事实上,这些审查项目几乎是秘密进行,科技公司和外包员工、第三方签订保密协议,不允许他们向外透露任何审查细节,Facebook把这个秘密项目起名为honeybadger(蜜獾)。在此次起诉事件中,Selena暂时无法提供更多工作细节,她担心一旦违反保密协定,会遭到报复。

纪录片《信息擦洗工》海报(2018.5)

在Selena的起诉声明中,她提到Facebook和第三方公司都不曾提供心理干预以保证审查员的精神健康。但即便提供了心理医生,内容审查员也不知道如何开口讲述自己的经历。据《连线》杂志报道,YouTube审查员Rob说,YouTube给擦洗工们雇了心理咨询师,理论上谁都可以和他们谈心,但Rob不知道如何接近他们。据他所知,也没有谁去找过咨询师。所以他只能靠自我调节——喝酒喝得越来越多,身材也越来越胖。

而创伤之后,审查员们可能产生一辈子的心理阴影。Selena的起诉文件里写道:“她的PTSD症状可能会因为碰到鼠标发作,也可能是因为走进了一栋冷冰冰的大厦、在电视上看到一段暴力视频、听到吵闹的声音,又或者,是因为受到一点惊吓。”

如果要真正解决审查员们的心理问题,或许还是应该回归技术,比如提高人工智能的识别能力和审查效率。但目前看来,开放的网络世界背后,还有如此多阴暗和不堪,扎克伯格与科技巨头们在人工智能审查上所做的努力还远远不够。

Reddit版主:用爱发电,无薪且糟心的职位

Reddit,一家月活达到3亿的神奇网站。界面设计极其Old School,但因为许多细分、有趣的小组吸引了一个又一个小圈层爱好者。

相比于Facebook内容审查员的隐秘身份,Reddit版主似乎更为人熟知一些,他们有自己的账号,有删帖和禁言的权利,小组用户可以直接和版主沟通。不同的是,在Reddit上当版主没有薪水,全靠志愿者们用爱发电,他们也一样要遭受种族主义、性别歧视、水贴刷屏等垃圾内容的精神侵害,甚至是被用户直接攻击。

全媒派在《 不抬杠是不可能的!有人用五年筛出了60万优质杠精 qq.com》提到一个小组changemyview,该小组为了建立一个理性讨论的优质社区,启用了22个志愿者作为版主,24小时巡视新鲜发帖,如有不当,则会沟通或删除。

其它小组的版主工作模式也是如此,但生存条件可能更艰难一些,至少,版主人数达不到22个之多。而被审核的小组用户们可没有那么开心,极端的人,给版主们发去一条又一条的辱骂和威胁信息。

在Engaget和 Point发起的联合报道中,他们找到了10个Reddit版主。版主们管理着大大小小的小组,最大的达1600多万订阅者。但无论小组大小,他们的困境都是相似的,被辱骂、攻击、人肉、诅咒甚至死亡威胁,而Reddit官方,一次又一次忽略了版主们提交的被攻击报告。

版主Emily管理着“伦敦”小组和“新闻”小组,为了避免极端报复,她从来不暴露自己的性别,以免有人威胁“强奸她”。还有一些攻击和威胁,描述得具象又恐怖,让人光看文字就会起一身鸡皮疙瘩。

牛津大学实验心理学副教授Lucy Bowes认为,长时间的版主工作必然导致抑郁症、PTSD和焦虑症等精神疾病,工作时间越长,患病危险越高。

对于Reddit这样的社区来说,技术监管和人力监管不到位,内容过于野生是一大原因。但与此同时,注册机制过于松散,导致恶意账号删不尽,喷子们随便用一个邮箱又可以注册回归。即便是禁言72小时,用户被解禁后还是会继续攻击。

而Lucy认为,对于Reddit这样体量的公司而言,要解决版主们的问题,应该从公司自身入手,比如对新版主进行培训,加强汇报反应机制的建设,或是截屏留取证据,以确保未来起诉。另一方面,对于这些志愿者,Reddit也应该随时关注他们的心理健康,及时进行干预和治疗。

尽管体量大,提供咨询的话会增加不少成本,但对于一个依靠一个个小组支撑起来的庞大社区而言,这些愿意资源维持社区秩序的人才是Reddit的财富。

事实核查员:真相的代价

在巴西,一份299页的文件在WhatsApp的右翼群里疯转,里面有40名事实核查员的社交媒体详细资料。巴西网友视奸他们所有人的账号:看,这是他2011年发的贴,他就是一个左派分子。

这一切,只是源自于事实核查组织Agência Lupa和Aos Fatos在今年5月宣布的计划:与Facebook合作,做好今年10月的总统大选辟谣工作。事实核查员们将手动辨别信息流中的假新闻,并打上“Fake”标识,将假消息的影响力降低80%。

但打击也由此开始。

先是大V和右翼媒体发文指责,事实核查员的工作是做“信息审查”,后又有人画了幅漫画,把事实核查员画成了投资人乔治·索罗斯的宠物,在WhatsApp门口巡视。

接下来是死亡威胁。有人给Lupa的总监Tardáguila发信息“你看不到巴西的下一任总统”、“我们会挨个来收拾你”……

这并非孤例。事实上,同Facebook合作的34个事实核查组织都受到了网络谩骂、人肉等威胁,这对他们的工作造成了很大困难,尤其在媒体信任度本就不高的国家。

事实核查的进展并没有那么顺利,一是利益相关方和一些网民在疯狂打击,二是在Facebook方面,他们并没有对这34个事实核查项目投入足够的资源,甚至在态度上都不够强硬和坚定。

在巴西,Facebook从未就此次事实核查项目召开新闻发布会,反复要求的热线和邮件也迟迟没有开通,唯一有的,只是在今年5月发布了两条博文,一是承认网络暴力确有其事并谴责有关行为,二是宣布和巴西、墨西哥和哥伦比亚的事实核查项目的合作。

在Tardáguila看来,Facebook需要明白,这是他们的项目,公司必须要发声,“我们努力了三年,没有任何改变,这些改变必须由Facebook来承担”。为此,她也提出了一些切实可行的合作条例:

关于需要被核查的内容,平台需要更好地翻译相关通知。

Facebook方开通热线或邮件地址,用户和媒体可以询问事实核查项目的相关问题。

在每个国家建立和事实核查员的主要沟通渠道。

对Facebook的事实检查项目运作流程进行可视化,翻译至现有的合作国家。

定期与事实核查合作伙伴开会,了解项目进展情况。

合作伙伴经理:与170个编辑室共同产出

ProPublica在2016年推出了有史以来规模最大的新闻众包项目Electionland 2016,和全国大小媒体合作,以任务分派的形式合作完成大选报道。报道覆盖范围广,参与媒体多,资源利用率高。随后,ProPublica试着开了新的项目,也由此诞生了一个新的职位。

新项目名为Documenting Hate,一个追踪和报道仇恨犯罪和偏见事件的调查项目。新的职业则是合作伙伴经理(partner manager),目前由记者Rachel Glickhouse担任。她像一个统筹者,同时担任记者、编辑、研究员、社交媒体制片人、招聘、培训和项目经理。

Documenting Hate官方网站

通过合作伙伴经理的努力,Documenting Hate项目和150家国家/本地媒体,以及20家高校媒体建立起合作关系。项目的关键在于资源共享和合作报道,ProPublica搜集到的仇恨事件案例和数据都被统一上传到官方数据库保管,并向加入的媒体开放使用,比如公众提供的线索和故事、警方的案卷信息,真正实现了资源上的共享和合作。

与此同时,合作伙伴经理也会担任起“空中管制调解员”的作用,确保不同记者不会在一个事件上耗费精力,或是针对不同当事人,指派合适的记者跟进。

虽然类似Documenting Hate这样的新闻众包项目有利于报道资源的合理分配,但合作伙伴经理也面临着不小的挑战。加入项目的记者可能无法彼此合作,也可能有等级倾轧,又或者,记者们对项目的热情有一定的周期性,有的可能无法长期为这个项目效力,而在一些特殊时期,参与者会少得可怜。

尽管如此,在Rachel看来,众包模式依然会是未来新闻的发展方向之一,在编辑室的时间和资金都非常稀缺的时代,有一个中心化的项目聚合资源并进行再分配,自然能极大程度上缓解编辑室所面临的尴尬。

互联网浪潮下诞生的新职位固然有其局限性和困境,但菲律宾事实核查项目Vera Files的联合创始人Chua认为,类似于事实核查员遭遇网络暴力的事件,Facebook固然有保护事实核查员的责任,但如果Facebook无法保护他们,那记者必须自我保护,“新闻业有风险,事实核查同样如此。”身为大时代下的小个体,我们能做的,不过是催促科技公司解决眼下的问题,让个人迅速跟上这滚滚向前的历史车轮。

【参考资料】

FB内容审查员患PTSD

//www.businessinsider.com/content-moderator-sues-facebook-ptsd-2018-9

社交网站上不为人知的隐匿职业:信息“擦洗工”-钛媒体官方网站 tmtpost.com

//www.theguardian.com/technology/2017/jan/11/microsoft-employees-child-abuse-lawsuit-ptsd

真相的代价:事实核查员遭到的威胁与攻击

//www.poynter.org/news/these-fact-checkers-were-attacked-online-after-partnering-facebook

Reddit讨论区审核管理员遭仇恨言论攻击

//www.engadget.com/2018/08/31/reddit-moderators-speak-out/

新闻业的最新职位 - 合作伙伴经理 -如何在ProPublica的新闻编辑室工作

http://www.niemanlab.org/2018/10/chasing-leads-and-herding-cats-how-journalisms-latest-job-title-partner-manager-works-in-propublicas-newsroom/

 短评

很有意思的视角,第三世界廉价审查员,被剥削的不只是重复性劳动,还被迫承受了最为骇人听闻的精神暴力。后半部分上升到社交媒体就比较泛泛而谈了,无非是民主和民粹的讨论,作者立场也过于明显。这部电影本质还是猎奇,但也只有冲击力和未知能引发思考。

9分钟前
  • 阿暖
  • 还行

看到扎克伯格意气风发的脸,就像是这个世界真正的领导者一样。可怕的是竟然还有人把自己和国家的人民与希特勒和被屠杀的犹太人类比,渺小无力的我们只能对着社交媒体冒泡。

13分钟前
  • 噼里啪啦
  • 推荐

不涉及处在局域网的我们,主要介绍采访不存在的欧美几大上传类社交网站的图片视频的人工审查员,他们居然都是在菲律宾的当地人,每天面对两万多件的色情暴力政治战争等敏感信息。梦到大量不同男人生殖器的女基督徒,还有的看过上百段斩首的影像,在自残部门调离不成而自杀的员工,叙利亚老百姓拍摄的那些和isis的如何处理,开放网络后只识脸书的缅甸人被假消息散播利用挑起的大屠杀,最后现身的扎克伯格发布会好像把矛头直指大公司在建立自由之地的同时今后要怎么走向,穿插在美国被诉讼而改变准则的几次事件,对了解那些人背后的操作程序和世界阴暗面有不少直观的感受,联想在高墙之内被保护的这片土地更加唏嘘。

18分钟前
  • seabisuit
  • 推荐

发人深思的优秀纪录片,不能忽视的人群——网路清道夫

21分钟前
  • 妮可妍妍
  • 力荐

看!这盛世,时代之恶,我在这儿先糊你脸上为敬。

25分钟前
  • 朱马查
  • 推荐

你好,你发表的关于《The Cleaners》的短评,因为含有违反相关法律法规或管理规定的内容,已被移除。感谢你的理解与支持。——豆瓣电影

30分钟前
  • 朝阳区妻夫木聪
  • 还行

当影像创作紧紧地与道德与立场捆绑,纪录片本身也跳脱开单纯的新闻属性,质问甚至鞭挞所有人习以为常的伦理框架。从网络清道夫,到社交媒体时代的仇恨传播,一块荧幕前后是监控的过犹不及,和话语的无孔不入。信息量大,有些话题点到即止,拍的精细完整,但再做扩充也无妨。

31分钟前
  • 鸡头井。
  • 还行

常在河边走哪能不湿鞋

35分钟前
  • 推荐

一部片顶十季《黑镜》,而且与当下联系更紧密,讨论的核心仍处在on-going状态,没有人知道之后会发生什么改变。手法无甚高明,但贵在争议的提出和创作者的态度,毕竟很多难题并不可能也并不应当由这部纪录片来回答。

37分钟前
  • Lycidas
  • 力荐

設計的場面和台詞過多,集中於弘大命題而遠離了作為網絡審查者的“人”。始終陷在一種美感過度的不適中。講演現場等視頻的活用很好。“被審查”的部分影像,那些自殺情色宗教與恐怖暴力,除了展示,真的沒有更好的方式了嗎?對影像資料的處理和使用,需要倫理上的再思考。JIFF0507M9

41分钟前
  • 看守煙霧的人
  • 还行

这群为了网络的健康与和谐默默付出的人们,难以想象他们每天要面对多少充满血腥、暴力、色情以及政治恐怖的镜头。他们目睹过自杀,目睹过砍头,目睹过性侵,出现一点小小的纰漏都可能会造成死伤甚至战争,他们在不为人知的地方守护着世界的和平

44分钟前
  • greenjoker
  • 力荐

脸书YouTube推特上,内容合法不合法,是让一群外包的菲律宾人来审查。难怪影片中,故意让审查员看两张照片,一张是获普利策奖的越战照片《火从天降》,因为小女孩全身赤裸,被删;另一张,伊战美军虐囚事件,审查员看成了ISIS士兵在虐美军俘虏,被删。

45分钟前
  • bugz
  • 力荐

“Delete, delete... Ignore, ignore”,以网络世界不为人注意的审查过滤工作展开,用Google和FB做引子,到最后拉开成了对极右思潮的兴起、政治讽刺的界限还有中东和罗兴亚人的全面涉及,88分钟里满满的信息量和各种立场。勾勒了网络世界近年来除去深网、色情交易和信息安全之外最严峻的现状。无法想象各位清道夫需要在工作中承受多少压力与伤害,才能换得一份维持温饱的工作;女孩穿行于垃圾堆的画面映照,十分加分。

47分钟前
  • 基瑞尔
  • 推荐

一部上影节北影节选片首轮一定被毙的纪录片出现在即将被迫全面退票转为免费包场的西宁,来自一个全球最大的被清理者组成的国度。

49分钟前
  • 黑狗成
  • 推荐

特别严肃、深沉、拓展视野和引人熟思的一部纪录片。新网络时代社交媒体在左右我们的思维动向,可怕的是它利用我们的潜意识,就在我们毫无意识之间替我们决定了一切。而被牺牲的网络审查员,真的新时代最悲伤职业。

53分钟前
  • L.C.
  • 力荐

引人深思。同样的内容在不同的语境下是不一样的,讽刺或者谴责是不是就可以?(实际工作中真的就遇到这样的情况啊)提供一个“干净”的环境是不是就不利于理性批判呢?非常不爽的是,这样一个“国际纪录片节”竟然放个样片给我看,中间字幕还因为剪辑版而字幕对应不上。

56分钟前
  • vivi
  • 推荐

① 网络审查的存在是必要的,如同现实生活中的质检、保洁和垃圾分类等工种;但对「垃圾」、「有害」的标准界定是模糊的;② 人与人之间的道德标准、族群与族群之间的习俗观念、国与国之间的法律政策都是存在差异,而遍及全球的社交网络平台必然无法普适所有地区人民;③ 平台工具的中立属性,与吸引点击的传播逻辑,形成天然矛盾;④ 国家和联合国都难以解决的矛盾争端,居然需要距离事发千里之外、月入几千元的审查员做出判断,真心无奈。

57分钟前
  • 十一伏特
  • 力荐

审查;还以为是日本人做的,原来是德国人;色情delete,战争暴行(宣传恐怖delete,反战ignore)但作为网络守望者的这部分菲律宾人不可能了解那个背景不好判断,忽略的害处:罗兴亚人的迫害,稀疏的言论自由:人里面不成熟、容易受恶影响的还是不少的,审查是一种偷懒的方式,人类就不用自己费劲去判断了,政治言论:油管的仅对该国ip屏蔽,也算厚道,那为啥我们不行?(大概扶植本国经济吧,也能偷懒,毕竟自己人好管);审查员自己的影响,每天看这些势必有影响(发条橙);网络使全球人心的共通,对于审查员更明显;言论自由观点(我的):事物都有丑恶一面,如果你没看到,说明你还不了解它;人总是需要假象的敌人(鄙视对象),外国移民、CXK。

60分钟前
  • 马828
  • 力荐

索爾仁尼琴說過“每個人有不知情的權利”,但是人又卻是好奇和獵奇。前幾年Dark Net第一季的其中一集就對網絡審查員有過展現。感覺這部紀錄片是擴展版,而且選取的事例頗具典型性。我依然覺得對於互聯網(尤其是移動互聯網)要採取謹慎甚至消極的態度。整個片最讓我印象深刻的是NGO組織對敘利亞內戰的社交網絡視頻爭分奪秒的保存。畢竟,很多視頻基於版權和審查已經無法被觀看,而本身又具備價值。其實,“知道太多”的審查員和違規視頻圖文資料庫同樣是個不穩定的危險因素。難道就不怕造反嗎?

1小时前
  • 熊仔俠
  • 推荐

清道夫不是人干的活。每天看各种黄色暴力血腥视频,有害身心。审查员有自杀的,也有宁愿回去捡垃圾,也不再看那些网络垃圾。

1小时前
  • 伊壁鸠鲁
  • 推荐

返回首页返回顶部

Copyright © 2023 All Rights Reserved