当你的自拍被AI“脱衣”:Pokimane揭开了数字性暴力的黑幕
最近,全球知名游戏主播Pokimane在一段直击人心的视频中,公开控诉社交平台X(原Twitter)及其AI工具Grok正在成为数字性暴力的帮凶。她没有使用华丽的辞藻,也没有刻意煽情,只是平静地展示了几十张被AI篡改过的自己的照片——那些原本只是日常穿搭、健身照、甚至只是对着镜头微笑的瞬间,被一键“脱衣”成裸露或半裸的比基尼图像,散布在各个角落,甚至被用来制作成表情包、色情帖子和恶意评论。
这不是个例。据《The Verge》和《Wired》后续报道,自Grok AI上线以来,大量用户利用其图像生成功能,专门针对女性网红、主播、普通女生的公开照片进行“深度伪造”(Deepfake)改造。这些内容往往在几分钟内被转发上万次,而平台却迟迟未采取有效拦截措施。更讽刺的是,Grok的宣传语曾是“更自由的AI体验”,可这份“自由”只属于施暴者,受害者却要独自面对全网的凝视与羞辱。
Pokimane坦言,她花了超过5000美元,请专业团队和律师,一个一个联系平台、提交侵权申诉、要求删除内容。她甚至雇了人24小时监控网络,只要发现新图,立刻启动下架流程。但她清楚,这不过是“有钱人的特权”。“我有团队、有资源、有影响力,可那些没名气的女孩呢?一个普通大学生发了张自拍去参加社团活动,结果被AI改了发到贴吧、Discord、Telegram,她该怎么办?报警?没人信。申诉?平台根本不回。她只能删掉账号,退出社交网络,甚至放弃学业。”
这不是虚构的剧情。根据美国非营利组织“Cyber Civil Rights Initiative”2024年发布的报告,全球超过90%的AI深度伪造色情内容针对女性,其中75%的受害者是25岁以下的年轻女性。而像X这样的平台,至今仍未对Grok的图像生成设置任何性别敏感过滤机制,也没有对“未经同意的AI换脸”建立自动识别系统。相比之下,Meta和Instagram早在2023年就上线了AI换脸检测工具,YouTube也推出了“AI生成内容水印”政策。
Pokimane在视频结尾说:“我不是在求同情,我是在求行动。如果你觉得‘这和我没关系’,那下一个被AI脱衣的,可能就是你的妹妹、你的朋友、或者你自己。”
平台在逃避,法律在追赶,我们能做什么?
目前,欧盟《数字服务法案》(DSA)已将“未经同意的深度伪造”列为非法内容,要求平台必须在24小时内删除;美国加州也通过了AB 3080法案,明确将AI生成的非自愿色情图像定为刑事犯罪。但现实是,多数平台仍以“技术中立”为由推诿责任,而执法机构面对跨境传播和匿名用户,往往束手无策。
但公众的愤怒正在积聚。#StopAIporn 已在Twitter和TikTok上获得超2.3亿次浏览,多个女性创作者发起“我拒绝被AI剥削”联名信,呼吁科技公司立即关闭Grok的无限制图像生成功能。甚至有用户自发开发了“AI换脸检测浏览器插件”,帮助普通人快速识别被篡改的图片。
Pokimane没有停下。她正在与非营利组织合作,建立一个“AI受害者援助基金”,帮助那些无力承担法律费用的普通女性申请删除、取证、甚至起诉。她说:“我不需要掌声,我只希望有一天,一个女孩发自拍时,不会再担心‘会不会被AI脱衣’。”
这不只是技术问题,这是尊严问题。
