“让她穿比基尼”:Grok 图片编辑功能引爆全球愤怒
短短11天,300万张女性和儿童的性化图像被自动生成——这不是科幻电影的桥段,而是埃隆·马斯克旗下 xAI 推出的 AI 助手 Grok 在 X 平台上实测出的惊人数据。由反数字仇恨中心(CCDH)独立调查披露,这项名为“图像编辑”的功能,允许用户只需输入“脱掉她的衣服”“换上比基尼”“看起来更性感”等指令,就能把真实人物的照片改造成高度逼真的深伪(Deepfake)色情内容。
受害者名单触目惊心:泰勒·斯威夫特、塞琳娜·戈麦斯、比莉·艾利什等全球知名女明星的图片被大规模篡改;更令人发指的是,约2.3万张图像被系统标记为疑似未成年人——其中不少是公开的校园照片、家庭合影,甚至幼儿园活动照。AI 每分钟生成190张这类图像,相当于每3秒就有一名女性或女孩被“数字化强奸”。
这不是技术“误判”,而是设计缺陷。CCDH 报告指出,Grok 的算法不仅未对名人照片做任何识别屏蔽,也未对年龄、面部特征进行基础防护。即便用户上传的是一个普通女孩的自拍,系统也能自动“优化”成露骨图像。更讽刺的是,这项功能曾被 xAI 官方宣传为“让创意无限自由”的亮点,如今却被联合国儿童基金会(UNICEF)称为“数字时代的新型暴力工具”。
全球围剿:多国封杀,美国启动调查
舆论风暴迅速演变为法律行动。菲律宾通信委员会(NTC)率先宣布全面禁止 Grok 在本国平台使用,称其“严重违反儿童保护法”。马来西亚和印度尼西亚紧随其后,要求本地互联网服务商屏蔽该功能。欧盟数字服务法案(DSA)办公室已将 Grok 列入“高风险AI系统”观察名单,正在评估是否启动跨境制裁。
在美国,加利福尼亚州总检察长罗布·邦塔(Rob Bonta)于5月21日正式宣布启动民事调查,重点调查 xAI 是否违反加州《深度伪造法案》(AB 602)和《未成年人网络保护法》。调查人员指出,即便用户在加州以外地区使用该功能,只要生成内容被传播至加州,就可能构成违法。
面对压力,X 平台一度试图淡化危机,称“报道夸大其词”,甚至声称“主流媒体在制造恐慌”。但当记者实测发现,只需输入“14岁女孩穿校服”就能生成大量符合描述的图像后,公司终于在5月24日宣布“暂时关闭部分地区的图像编辑功能”。可问题是:屏蔽只在法律明确禁止的国家生效,而在美国、英国、澳大利亚等多数地区,这项功能依然可用。
谁在为AI的“自由”买单?
这不是第一次AI被用来制造性暴力内容。早在2023年,Deepfake 恐怖主义就已导致超过16万人成为受害者,其中96%是女性。但 Grok 的可怕之处在于:它把原本需要专业技能、昂贵软件和数小时操作的深度伪造,变成了“一句话的事”。一个普通用户,不需要任何技术背景,就能在手机上完成对陌生女性的数字化侵犯。
更令人担忧的是,xAI 并未公开训练数据来源。有网络安全专家指出,这些图像极可能来源于社交媒体上公开的个人照片——无数女孩在 Instagram、TikTok 上分享的日常自拍,如今成了 AI 的“素材库”。而平台方至今未承诺建立“人脸授权机制”或“内容来源追溯系统”。
联合国妇女署在一份声明中质问:“当科技公司把‘创作自由’凌驾于人身尊严之上,我们还能相信任何自称‘中立’的AI系统吗?”
下一步:技术该不该被关掉?
目前,Grok 的图像编辑功能已在部分国家下架,但核心问题仍未解决:AI 是否应该拥有“修改真实人物外貌”的能力?在德国,已有议员提出立法提案,要求所有AI图像生成工具必须内置“人脸识别禁用库”,并强制标注生成内容。Meta、Google 和 OpenAI 已主动屏蔽名人图像生成,但 xAI 仍未跟进。
如果你是家长,你愿意让孩子在社交媒体上发一张自拍吗? 如果你是女明星,你愿意让AI把你变成别人眼中的“性幻想对象”吗? 如果你是用户,你真的需要一个能“一键脱掉别人衣服”的工具吗?
技术没有善恶,但设计它的人有。当自由没有边界,它就成了暴力的帮凶。Grok 的风波,不是一场公关危机,而是一场关于人性底线的全球投票——而我们,正在参与投票。