最新消息:关注人工智能 AI赋能新媒体运营

马斯克旗下Grok生成不雅图像遭日本政府要求整改

科技资讯 admin 浏览

日本正式出手:X平台AI助手Grok被盯上,深度伪造图像引发全球关注

最近,马斯克旗下的社交平台X和它的AI助手Grok,成了日本政府的“重点对象”。1月16日,日本经济安全大臣小野田纪美在记者会上公开表示,内阁府已向X平台发出正式书面质询,要求其在两周内详细说明:Grok是如何防止用户生成伪造名人、普通人甚至未成年人的深度伪造图像的?

这不是简单的“技术失控”问题。据日本官员透露,过去三个月内,已有数十起举报案例指向Grok生成了高度逼真的虚假图像——包括政界人士的不雅照、普通女性的裸体合成图,甚至有学生照片被用来制作色情内容。这些图片在X平台上被大量转发,部分甚至被境外账号搬运至Telegram和4chan,引发公众愤怒。

“AI不是问题,问题是没人管。”小野田纪美在记者会上语气严肃,“我们不反对技术创新,但不能让技术变成伤害普通人的工具。如果一个AI能轻松伪造你女儿的脸,那我们还谈什么隐私权?还谈什么尊严?”

日本并非孤军奋战。早在去年底,欧盟就已依据《人工智能法案》将生成式AI的深度伪造内容列为“高风险应用”,要求平台必须标注AI生成内容并设置阻断机制。美国联邦贸易委员会(FTC)也于今年初对多家AI公司开出了首笔罚单,涉及未经同意使用他人面部数据训练模型。而日本此次行动,是亚洲首个对AI内容生成平台启动正式行政调查的国家。

更值得注意的是,日本政府已明确表示:这不是“针对马斯克”,而是“针对所有放任风险的平台”。未来,如果OpenAI、Anthropic、百度文心一言等其他AI服务被发现存在类似漏洞,同样会面临质询与处罚。一位匿名政府官员透露:“我们正在建立一个AI内容风险监测系统,未来将自动抓取全网可疑图像,并反向追踪生成源头。”

目前,X平台尚未公开回应日本的质询。但据知情人士透露,其内部团队正在紧急升级Grok的图像过滤模型,试图通过“人脸比对数据库”和“语义风险关键词拦截”双轨机制堵住漏洞。然而,技术专家指出,当前的AI模型仍能绕过简单过滤——比如用“艺术风格”“卡通化”等关键词规避检测,或通过多轮对话诱导AI生成“非直接但可识别”的图像。

这场风波,正在改变全球对AI监管的节奏。过去,大家觉得“等出了事再说”;现在,日本用实际行动表明:监管不能等,必须跑在技术前面。

普通人该如何自保?专家给出三条实用建议

面对AI伪造技术的泛滥,普通用户不能再抱有“这跟我没关系”的心态。日本数字安全协会(JDSA)近期发布了一份《AI时代个人防护指南》,核心建议如下:

  1. 别随便上传高清人脸照——尤其是儿童、老人、女性的正面清晰照片。即使是朋友圈、Instagram或微博,也建议打码或使用模糊滤镜。
  2. 启用平台的“AI内容举报通道”——X、Twitter、Instagram均已上线举报AI生成图像的功能,举报后平台需在72小时内响应。日本消费者厅已统计,过去两个月,通过举报下架的AI伪造图超12万张。
  3. 安装反AI伪造浏览器插件——如“Deepware Scanner”或“Reality Defender”,可实时检测图片是否为AI生成。这些工具免费,且已在德国、韩国、日本的学校和企业中推广使用。

“技术越强大,越要有人守住底线。”一位日本律师在社交媒体上写道,“我们不是在阻止AI,我们是在阻止它变成新的暴力工具。”

这场关于AI的监管风暴,才刚刚开始。而每一个普通人,都可能是下一个受害者,也可能是第一个站出来的人。