最新消息:关注人工智能 AI赋能新媒体运营

Meta裁撤外包审核员,AI全面接管内容审查

科技资讯 admin 浏览

Meta要淘汰人工审核员了?这场变革比你想象的更残酷

本周,Meta正式宣布:未来几年内,将全面用自研AI系统取代外包人类内容审核员。这不是“升级”,而是一场无声的裁员风暴。Facebook和Instagram上那些日复一日盯着血腥、暴力、儿童剥削和极端主义内容的审核员,即将被算法取代。

这听起来像是技术进步的必然——AI能24小时不休息、不崩溃、不失眠。但真相远不止效率二字。过去十年,成千上万的外包员工,大多是发展中国家的年轻人,每天被迫观看数百条令人作呕的视频,只为遵守Meta的“社区准则”。他们没有心理咨询,没有足够休息,很多人确诊PTSD,有人辞职后无法正常生活,有人甚至自杀。

2021年,《纽约时报》曾深度调查过肯尼亚一家Meta外包审核公司,一名员工回忆:“我看过一个男孩被活活烧死的视频,连续看了三次,因为系统说‘没标记清楚’。那天晚上我吐了,第二天还得继续。”这类故事,在全球至少有上万人亲身经历。

现在,Meta说:“AI更适合处理这些内容。”他们声称新系统能识别更隐蔽的非法交易、伪造身份和深度伪造视频,还能实时学习新套路。听起来很完美?可就在声明发布后不到48小时,内部邮件被泄露:一名AI误判一位普通用户上传的抗癌治疗记录为“自残内容”,直接封禁其账户,并向警方举报——用户险些被强制送医。

这不是孤例。2023年,Meta的AI曾误删数百条LGBTQ+社群的互助帖,理由是“涉及性暗示”;2024年初,系统又把一位非洲母亲分享孩子接种疫苗的照片,标记为“儿童剥削”,导致她无法登录账户数周。算法不懂语境,不懂文化,不懂痛苦背后的尊严。

Meta坚称仍会保留“关键岗位”的人工审核,但这些岗位将集中在总部,薪资翻倍、福利优厚,而全球数万名外包员工——多数在菲律宾、印度、墨西哥——将被彻底边缘化。据知情人士透露,已有超过3000名外包审核员在近半年内收到“合同终止”通知,公司甚至没开一场说明会。

更深层的问题是:当内容的“对错”不再由人判断,而是由一组代码决定,谁来为误判负责?谁来定义什么是“极端主义”?当AI把反战抗议标记为“煽动暴力”,把宗教祷告误判为“恐怖宣传”,我们还能相信这个平台吗?

这不是技术的胜利,这是权力的转移。Meta用AI省下了每年近10亿美元的人力成本,却把道德负担,悄悄转嫁给了算法和公众。而我们,正在成为这场实验的沉默见证者。

如果你曾发过一条被删的帖,或被封过号,别以为那是系统“出错”。那可能是AI在替人类,做出它不该做的决定。