商业性内容审核是对网站、社交媒体和其他在线空间的用户生成内容进行审核的有组织行为。审核工作可能在内容发布之前进行,也可能在内容发布之后,用户的投诉尤其会触发平台的内容审核机制,引发职业审核员介入。投诉可能来自第三方的网站审核员和管理员(比如有些公司声称该内容涉嫌侵权),或者来自不堪其扰的其他用户。
对于需要通过用户生成内容(UGC)来维系在线业务的商业性网站、社交媒体平台和媒体来说,商业性内容审核是它们生产周期中关键一环。内容审核对于需要这项服务的公司来说至关重要,它可以(通过强制用户遵守网站规则)保护公司和平台的品牌,确保公司的运营符合法律法规的规定,帮助公司留住愿意在平台上浏览和上传内容的用户。
不过,处理这些内容的过程往往只能说是马马虎虎。在许多高流量网站上,用户生成内容的数量非常惊人,而且还在持续增长。撇开规模不谈,对用户生成内容进行恰当筛选的过程就非常复杂,远远超出了软件和算法的能力。这不仅是个技术或计算的问题,由于信息分类的理论难题长时间没得到解决,如此大规模的内容审核仍然是个挑战。困难的地方在于,一条内容的基本信息(它是什么,它描述的是什么)、意图(它的出现和传播有何目的)、无意中的后果(除了最初的意图之外,它还会造成哪些后果)、意义(在不同的文化、地区和其他因素下,意义会有很大差异)都交织在一起,同时还要用各种“规则”去衡量它,包括平台规则和当地情况(社交规范、期望和容忍度等),还要考虑更广大开放世界中的社会、文化、商业、法律制度和行政命令等因素。
有些内容适合进行局部批量处理,或者通过其他自动化手段过滤,尤其是那些已经出现过、在数据库中被标记为不良的内容。但这个过程非常复杂,需要同时兼顾和平衡的因素太多,因此,绝大部分由用户上传的内容还是需要人工干预才能得到恰当的甄别,特别是包含视频和图片的内容。人工审核员要运用一系列高级的认知功能和文化素养来判断内容是否适合这个网站或平台。重要的是,大多数依赖用户参与的主流社交媒体平台一般都不会在内容发布之前进行严格的审核,这意味着除个别情况外,对于特定视频、图片和文本的审核都是在它们发布到平台一段时间后才进行的。这是社交媒体公司自己制定的商业决策,与技术和其他因素无关,用户也已经习惯了这种做法。
职业审核员需要熟知网站目标用户群的品味,了解平台和用户所在地的文化。审核员工作的地点可能离平台总部或用户所在地非常遥远,地区间的文化差异可能也很大。审核员必须通晓网站内容的语种(可能是审核员学过的外语或第二语言),精通平台发源地国家的相关法律,熟悉用户守则和平台上极其详细的内容发布规则。
对于那些违反网站规则或法律的内容,审核员可以做出快速简单的判断。他们可以运用一些计算机工具对用户生成内容进行大规模处理,比如运用文本屏蔽词自动搜索工具来搜索违禁词(常见于对文字评论区的审核),通过“皮肤过滤器”(skin _lters)识别图片和视频中的大面积裸体来判定色情内容(尽管不一定都准确),或者使用一些工具来匹配、标记和删除侵权内容。这些工具能够加快整个流程,甚至自动完成审核任务,但大部分用户生成内容还是需要进行人工审核评估,尤其是被其他用户举报的内容。
对图片和视频来说,机器自动检测仍然是个极其复杂的计算问题。“计算机视觉”,即计算机对图像和物体的识别,仍在发展、充满技术挑战,要想把它大规模全面运用在众多的内容审核场景当中,在技术和资金上还不可行。因此,这些工作只能由人力完成,由审核员运用他们自己的决策流程处理一批批的数字内容,并在有必要时进行干预。
无论审核内容的主体是机器、人类还是两者的结合,人们在使用依赖用户生成内容的社交媒体、网站和服务时,往往对这种有组织的职业化全职工作所知甚少。许多依靠用户生成内容来营利的社交媒体和其他平台都把内部审核活动和政策细节当做专有信息来保护。在它们看来,完全披露这些政策的真实性质,可能会导致不怀好意的用户钻空子,或者被竞争对手曝光这些被视为机密的行为和流程,从而取得竞争优势。将这些政策保持在内部秘密状态,也可以让它们免受用户、民间活动人士和监管者的监督和讨论。事实上,内容审核员往往要签署保密协议,不能泄露工作的内容。
对于这些依赖用户生成内容的公司来说,至少还有一个原因使得它们不愿意公开其内容审核活动。它们对于大规模、产业化的内容审核的依赖是一种无奈之举,如果这种需求被人们知晓并完全掌握,平台的阴暗面就有可能暴露,即用户会利用它们的分发机制来传播令人反感和不适的内容,而大多数主流平台都不愿意给公众留下这种印象。因此它们会雇佣商业性内容审核员来从事机械重复的工作,观看暴力、令人不适甚至会造成心理伤害的内容。另外,现有行业体制几乎完全被有商业性内容审核需求的社交媒体公司所支配,在这种体制下,审核员的地位和薪酬通常比较低,比其他科技工作者,甚至是同一座大楼里的工作者都要低。
商业性内容审核员的工作条件以及平台对他们的依赖,构成了并不光彩的幕后图景,很少有社交媒体公司、平台和网站愿意公开讨论它。美国全国公共广播电台的记者丽贝卡·赫舍(Rebecca Hersher)在早年调查这种规模化的内容审核工作时曾试图采访微软和谷歌的审核员,却遭到了拒绝。在她2013 年的报道《阻止儿童色情内容的幕后工作者》中,一位微软方面的发言人轻描淡写地将内容审核工作称为“脏活”。
要理解商业性内容审核,我们就必须了解这项工作是在哪里、由哪些人、以何种方式进行的。我在研究规模化的社交媒体审核工作时,最早的一个重要发现是这项工作在组织和地理上呈零散状态,即使是业内人士,也不一定知道或者理解这一点。据我所知,全球各地的商业性内容审核工作有多种不同的运作模式、就业状况和工作环境,而这些通常是人为设定的。审核员的工作地点通常离内容生成地比较远,离内容储存地也比较远。他们的职位头衔多种多样,有“内容审核员”“审查员”“社群管理员”等,还有一些其他隐晦、花哨的名称,有些名称根本看不出具体的工作内容,也看不出他们与同行的关系。事实上,就连审核员自己也很难只通过职位头衔来辨别同行。商业性内容审核员的职位头衔如此多样,办公地点又如此分散,研究者、记者和劳工组织都难以找到或辨别他们。
无论采用哪种用工方式和策略,在各个层面、在所有审核用户生成内容的地方都有一些共同的特征。审核工作通常由半永久或临时的合同工完成,他们的薪酬和地位都比较低。商业性内容审核是一个全球性的产业和实践,这些工作通常会被拿到离内容创作或到达的地方(通常是某个国家或地区)很远的地方来处理。人们最初曾经乐观地设想,新型的技术性知识工作能够为参与其中的各类工作者提供更高质量的工作和生活、更丰富的人生和更多的休闲时间,而内容审核也正好符合这种设想。但是,商业性内容审核的工作环境并没有人们想象中的那么美好,它除了需要大量的劳动力之外,并不需要特别高的技能,因为这只是一份重复性的无聊工作。随着社交媒体公司在全球范围内招募那些愿意从事数字计件工作的劳动者,审核员的薪酬甚至进一步降低了。由此看来,在线内容审核更像是在经历一种反乌托邦式的、由技术进步导致的恶性竞争。
无论在什么环境下从事商业性内容审核工作,审核员都有可能发现,这并不是他曾经为之接受培训、准备和学习过的工作。在看到招聘信息、被人力派遣公司招揽、被他人以更加间接迂回的方式联系上时,大部分商业性内容审核员都没有听说过这种工作。即使在首次面试之后,他们可能仍然没有充分了解这份工作的性质,毕竟它出现的时间还很短。
编辑/韩世容