App Store惊现“AI裸体化”应用,数亿下载量背后是未成年人的噩梦
尽管苹果公司长期以“隐私保护”和“生态安全”为宣传核心,但一份由科技透明项目(TTP)发布的深度调查报告,揭开了App Store光鲜外表下的黑暗角落:数十款名为“AI裸体化”的应用程序,正公然在苹果和谷歌应用商店中流通,利用人工智能技术,将普通照片一键转化为虚假的裸露图像——而这些图像的受害者,不乏未成年人。
这些应用伪装成“滤镜工具”“照片美化”或“AI艺术生成器”,在商店中以“轻松变美”“创意特效”为卖点吸引用户。然而,其真实功能是通过深度学习模型,对上传的任何人脸——无论是否经过授权——进行非自愿的裸体生成。一名14岁女孩的学校照片,可能在几分钟内被转换成色情内容,并在社交媒体上被恶意传播。受害者家属表示,许多孩子因此遭受严重心理创伤,甚至出现抑郁和自杀倾向。

更令人震惊的是,这些应用的传播规模远超想象。TTP数据显示,仅在2023年至2024年初,全球累计下载量已突破7.2亿次,相关应用总收入超过1.1亿美元。苹果和谷歌作为平台方,从中抽取了高达30%的分成,保守估计获利超过3000万美元。而这些收入,正是建立在对未成年人的剥削之上。
审核形同虚设?苹果的“沉默”让问题愈演愈烈
苹果官方的《App Store审核指南》第5.1条明确禁止“生成或传播非法、冒犯性或非自愿的裸露内容”。但现实中,开发者只需更换应用名称、图标和描述,就能绕过审核系统。例如,一款名为“PhotoArt Pro”的应用,在被举报后改名为“StyleMaster”,上架仅三天便再次获得十万次下载。
2024年3月,美国非营利组织“网络安全联盟”(Cyber Safety Alliance)曾向苹果提交包含127个违规应用的详细清单,附有截图、下载链接和受害者证词。苹果在两周内下架了其中34款,但其余93款至今仍在架上运营。部分应用甚至在被举报后,更新版本加入了“用户同意提示”——但该提示仅在安装时一闪而过,且默认勾选,根本无法构成有效授权。
更讽刺的是,苹果在2023年曾高调推出“儿童安全功能”,声称能“自动检测并阻止儿童色情内容”。然而,该功能仅针对iMessage和照片图库,完全不覆盖第三方应用。这意味着,一个孩子在App Store下载的“AI滤镜”应用,完全不受任何系统级防护。
全球抗议声起,苹果的“道德高地”正在崩塌
舆论压力正迅速发酵。美国参议员艾米·克洛布彻(Amy Klobuchar)在国会听证会上质问:“当一家公司年收入超3800亿美元,却对儿童被AI强奸视而不见,它究竟在守护什么?”欧盟数字服务法案(DSA)已将苹果列为“超大型在线平台”,要求其在2024年底前提交风险评估报告,否则面临全球最高达全球年营业额6%的罚款。
在Reddit、X(原Twitter)和TikTok上,“#AppleFailedUs”话题浏览量已突破1.8亿次。多名曾被AI生成图像骚扰的青少年在视频中哭诉:“我们不是你的流量工具,我们是活生生的人。”一位母亲在请愿书上写道:“我女儿的学校照片被做成色情图,传遍了全班。苹果说‘我们很重视’,可我女儿的童年,再也回不来了。”
苹果至今未就此事发布正式声明。没有道歉,没有赔偿方案,也没有公布审核机制的升级时间表。在AI技术以惊人速度演进的今天,苹果的沉默,不是技术无力,而是道德选择。
当一家标榜“用户至上”的公司,选择用分成掩盖伤害,它失去的不只是声誉——而是整个世代对科技的信任。