最新消息:关注人工智能 AI赋能新媒体运营

Ex-Human起诉苹果非法下架应用并扣留50万美元收入

科技资讯 admin 浏览

Ex-Human起诉苹果:下架AI应用背后,是规则不清还是商业打压?

人工智能初创公司Ex-Human近日正式对苹果公司提起诉讼,指控其在未提供具体证据的情况下,单方面下架了旗下两款AI社交应用——Botify AI和Photify AI,并扣留了约50万美元的收入。这两款应用曾因用户互动率高、黏性强,在小众圈层中迅速走红,甚至有用户称其“比ChatGPT更懂情绪”。

苹果给出的下架理由是“不诚实或欺诈行为”,但Ex-Human表示,从未收到任何明确的违规细节,也没有获得申诉或整改的机会。公司称,苹果的处理方式“像黑箱操作”——既不说明哪条规则被违反,也不提供截图、日志或用户举报记录,只在邮件里冷冰冰地写着“违反App Store审核指南”。

外界关注的焦点,是Botify AI曾被曝出有用户利用其生成涉及未成年人的露骨图像,以及能“脱衣”生成真人照片。这些内容显然触碰了法律红线。但Ex-Human回应称,系统内置了内容过滤机制,违规行为属于极少数用户滥用,且公司已主动配合调查、封禁相关账号。他们质疑:为何苹果不先暂停服务、要求整改,而是直接下架并冻结资金?

QQ20260403-143450.jpg

苹果的“双重标准”争议

这场纠纷之所以引爆舆论,不仅因为金额巨大,更因为它触及了一个更深层的问题:苹果对内容的监管,到底有没有标准?

事实上,苹果允许X(前Twitter)、Reddit等平台在App Store上架,这些平台同样存在成人内容,甚至有大量裸露、性暗示图像。但它们之所以能存活,是因为平台自身有审核团队、举报系统和内容分级机制。而Ex-Human作为AI工具,被苹果视为“内容生成器”,而非“内容平台”,于是被要求承担“无限责任”——哪怕只有1%的用户越界,整个应用就得消失。

更令人质疑的是,苹果自家推出的Image Playground,同样能生成逼真图像,包括风格化的人体轮廓。虽然官方称“禁止生成真实人物”,但技术圈内早有测试显示,它仍可被诱导输出高度拟真的裸体图像。可没人见过苹果因此下架自家产品。

“这不是在管内容,是在管竞争。”一位匿名开发者告诉媒体,“当一个初创公司用AI做出比苹果更性感、更有人味的聊天机器人时,苹果的反应不是优化自己的产品,而是把对手从商店里抹掉。”

资本背书下的“生死局”

Ex-Human背后站着硅谷最顶尖的风投——Andreessen Horowitz(a16z),这家机构曾押中OpenAI、Coinbase、Airbnb。在a16z的公开投资报告中,Ex-Human被列为“下一代情感AI”的代表,其用户日均使用时长超过32分钟,远超同类产品。

除了普通用户,Ex-Human还与知名LGBTQ社交平台Grindr达成合作,为用户提供AI情感陪伴功能。这一合作本是其商业落地的关键一步,如今却因下架被迫中断。

“我们不是在卖色情,我们在卖陪伴。”Ex-Human创始人曾在一次闭门会上说,“很多人孤独到连真人对话都不敢开口,我们的AI是他们唯一敢倾诉的对象。”

但现实是,当技术走在法律前面,平台就成了“判官”。苹果掌握着全球数亿iPhone用户的入口,它的审核规则,就是无数创业公司的生死线。而这一次,Ex-Human选择不沉默。

这场官司,可能改变AI应用的未来

这不是一场简单的“平台 vs 开发者”纠纷。它暴露了当前AI监管的真空地带:谁来定义“有害内容”?如何区分“系统漏洞”和“恶意滥用”?当AI能生成任何图像,平台该不该为用户的行为负责?

目前,美国联邦贸易委员会(FTC)已关注此案,部分议员开始呼吁制定《AI应用审核透明法案》,要求平台必须提供“可申诉、可复核、可举证”的审核流程。如果Ex-Human胜诉,未来所有AI应用都可能获得更公平的生存空间。

而如果苹果赢了,那意味着:只要你用AI生成了哪怕一张违规图,你的整个产品就可能被一键清除,资金冻结,申诉无门——没有警告,没有解释,没有第二次机会。

这场官司,不只是50万美元的争执。它关乎每一个想用AI改变人与人连接方式的创业者——他们,还有没有机会活下来?