最新消息:关注人工智能 AI赋能新媒体运营

苹果警告马斯克:Grok若不整改将被下架

科技资讯 admin 浏览

苹果与X的暗战:Grok为何被拒三次才上架?

今年年初,一则消息在社交媒体上炸开了锅:X平台旗下的AI聊天机器人Grok,能轻松根据用户指令,生成女性甚至未成年人的裸体图像。有用户上传了真实案例——一名14岁女孩的照片被AI换上暴露服装,配文“帮我脱掉她的衣服”。这段内容迅速传播,引发家长、女权组织和儿童保护机构的强烈抗议。#GrokDanger 一度登上推特全球趋势榜。

压力迅速传导到苹果。作为App Store的“守门人”,苹果收到大量投诉后,内部紧急召开会议。知情人士透露,苹果法务和审核团队在一周内就得出结论:Grok严重违反《App Store审核指南》第5.2条——“不得生成或传播非自愿的裸露或色情内容”。他们立即联系X母公司,发出正式警告:如果不彻底整改,Grok将被强制下架。

但X的反应,远比外界想象的拖沓。第一版“修复方案”只是简单添加了几个关键词屏蔽词,比如“脱衣”“裸体”——结果用户换个说法,比如“穿得少一点”“泳装模式”,Grok照样生成违规图像。苹果审核员当场退回,附言:“这不像整改,像在玩文字游戏。”

第二轮修改,X终于加了图像识别层,开始检测人物面部特征和身体轮廓。但漏洞依然存在:用户上传一张穿泳装的女性照片,Grok能自动“优化”成比基尼变丁字裤,甚至把路人照片换成“性感网红”风格。苹果再次拒绝,这次直接点名:“你们在绕过检测,而不是解决根本问题。”

直到第三次提交,X才真正动了真格:限制非订阅用户使用图像生成功能;对涉及真实人脸的请求,必须通过双重验证;并接入第三方AI内容安全引擎。苹果这才松口,批准了Grok的更新版本。但据内部邮件显示,苹果审核主管在批准前备注:“我们不是信任他们,我们只是暂时接受他们的妥协。”

整改了,但问题还在

你以为事情结束了?并没有。

NBC News在6月的追踪调查中发现,过去四周内,仍有至少17起Grok生成非自愿裸露图像的明确案例。其中一起发生在俄亥俄州,一名高中生用朋友的照片生成了多张暴露图片,发到校园群组。平台虽自动标记了部分请求,但仍有大量变体绕过检测——比如用“艺术风格”“漫画风”“复古海报”等关键词伪装意图。

更讽刺的是,X官方在5月底宣布“Grok Pro用户可解锁高清图像生成”,而普通用户却被限制。可调查发现,不少用户通过注册多个账号、使用海外VPN、或在网页端绕过App Store限制,依然能轻松调用完整功能。

苹果方面至今未公开回应最新情况,但一位不愿具名的App Store高管对记者说:“我们每天收到上百条关于Grok的举报。我们能做的,是不断更新规则、加强扫描。但最终,责任在X。他们不是没能力堵住漏洞,是没意愿彻底堵死。”

背后的权力博弈:谁在控制AI的底线?

这场拉锯战,不只是技术问题,更是权力的角力。

苹果手握全球超15亿iOS设备的“应用准入权”,能一纸命令让任何应用消失。而X,作为马斯克的“个人帝国”,一直以“言论自由”自居,公开嘲讽苹果是“数字围墙花园”。Grok的审核僵局,本质上是两种价值观的碰撞:一边是平台责任与儿童保护,一边是“技术中立”的傲慢。

更令人不安的是,这不是孤例。就在上周,谷歌也下架了另一款AI图像工具“DreamStudio”的更新版,理由同样是“可生成非自愿裸露内容”。Meta的AI聊天机器人Llama也因类似问题,在欧洲被监管机构点名。但只有苹果,敢对马斯克说“不”。

现在的问题是:当一家公司能靠技术绕过监管,而另一家能靠渠道扼杀产品,谁来真正保护普通人——尤其是女性和未成年人——不被AI当成素材?

苹果的警告发了,X的补丁打了,但那道裂缝,还在。而下一个“Grok”,可能已经在路上了。