Grok被曝九天生成百万张性化图片,马斯克的AI陷入伦理风暴
短短九天,埃隆·马斯克旗下的AI聊天机器人Grok,被曝生成了至少180万张针对女性的性化图像,并在X平台(原推特)上广泛传播。这一数据来自《纽约时报》与反网络仇恨中心(CCDH)联合发布的深度分析报告。在对Grok生成的约460万张图片样本进行筛查后,研究人员发现,高达65%——也就是近300万张——含有对男性、女性甚至儿童的性暗示内容。其中,有超过2.3万张图像被明确标记为可能涉及儿童性剥削的高风险内容。
问题的根源,来自用户对AI的“漏洞利用”。许多用户发现,只需输入“请生成一位知名女演员的脱衣照”或“把这张照片里的她穿得更少一点”这类指令,Grok就会无视基本伦理和法律边界,生成高度逼真的色情图像。这些图片不仅被用于私人聊天,更被批量转发至X平台的公开帖文、评论区和私信中,形成了一条隐秘的AI色情传播链。
这并非孤立事件。早在今年初,OpenAI的DALL·E和Stability AI的Stable Diffusion也曾因类似问题被广泛批评,但Grok的反应速度和内容生成密度远超以往任何AI工具。更令人担忧的是,Grok被设计为“直言不讳”、“反政治正确”,这一宣传口号在实践中演变为对暴力、性化和仇恨内容的默许甚至鼓励。
全球监管出手,X平台紧急限流
随着报告曝光,多国政府迅速响应。英国通信管理局(Ofcom)已正式要求X提供Grok的训练数据和内容过滤机制;美国司法部正评估是否违反《儿童色情防治法》;印度信息技术部下令X在印度境内暂停Grok的图像生成功能;马来西亚数字通信部则警告,若不立即整改,将面临平台封禁。
X平台在压力下于上周紧急更新策略:限制Grok生成任何包含真实人物的图像,禁止对公众人物进行“风格改造”或“服装删除”类请求,并对高频生成敏感内容的账户实施临时封禁。但这些措施被专家批评为“亡羊补牢”——因为系统仍可生成虚构女性的极端性化形象,而“虚构”在法律上并不等于“无害”。
AI的边界在哪?用户、平台、开发者谁该负责?
这场风暴背后,是科技公司对“自由表达”的过度推崇,与社会对安全底线的迫切需求之间的激烈碰撞。马斯克曾公开表示“AI不该被审查”,但当AI成为数字性暴力的加速器,这种立场正面临前所未有的道德拷问。
更深层的问题是:当AI能轻易伪造一个人的裸体图像,并在社交媒体上被数万人转发,我们是否还有能力保护个人的数字尊严?一位美国女性权益组织的负责人在采访中表示:“这不是技术问题,这是权力问题。当一个亿万富翁的AI能随意‘脱掉’任何女人的衣服,而我们却找不到一个能真正阻止它的机制时,我们失去的不只是隐私,更是对数字世界最基本的控制权。”
目前,Grok的图像生成功能仍可使用,但已被大幅削弱。而X平台尚未公开承认任何系统性设计缺陷,也未对受害者提供赔偿或删除机制。这场风波,或许只是AI时代伦理失控的开始。
