马斯克的X平台,正用AI讲一个“安全”的新故事
为了把跑掉的广告主拉回来,X平台(原Twitter)悄悄换了副面孔。2026年3月初,一份被《Business Insider》拿到的内部演示文稿显示,X正向潜在广告客户推销一个全新卖点:在自家AI助手Grok的“守护”下,平台已经“变得无比安全”。
这番话听着耳熟——就在一个月前,Grok还因为能生成儿童和女性的深度伪造色情图像,被全球媒体围攻,联合国儿童基金会公开点名批评,多个跨国品牌紧急撤下广告。如今,同一套技术,被包装成了“品牌安全的终极防线”。
“接近100%安全”?数据背后藏着什么
这份PPT里最醒目的数字是:在Grok参与内容审核后,X的品牌适宜性评分达到“接近100%”,引用的是第三方机构IAS和DoubleVerify的评测结果。
但没人问:这个“100%”是怎么算的?是只测了广告投放的前1000条帖子?还是排除了那些被举报后才删掉的内容?业内知情人士透露,IAS的评估标准主要针对“广告是否出现在暴力、色情或仇恨内容旁”,而X的系统现在能实时拦截4000个关键词、2000个“高风险账号”——听起来很严密,可这些名单是谁定的?怎么更新?有没有人为干预?全都没提。
更关键的是,Grok的“精准屏蔽”功能,和它之前被禁的“生成图像”功能,用的是同一套底层模型。广告商们心里清楚:能生成儿童深伪图的AI,真能一夜之间变成“道德卫士”?
从“起诉屏蔽名单”到“求你用屏蔽名单”
最讽刺的转折,藏在PPT的一页小字里:X现在主动推荐广告主使用“屏蔽名单”(Blocklists)。
这有多荒谬?就在2025年,马斯克还在推特上公开骂屏蔽名单是“审查工具”,称其“让平台失去灵魂”,甚至起诉了使用这些名单的广告代理公司。他当时说:“如果你连一个疯子的推文都不敢靠近,那你根本不懂社交媒体。”
如今,同样的人,换了一套话术:“我们的AI能自动避开你不想出现的任何内容,你可以定制专属黑名单,确保广告零风险。”
这不是技术升级,这是生存策略。广告主跑了,收入腰斩,X的财报连续五个季度下滑。2026年第一季度,X的广告收入同比暴跌68%。马斯克终于明白:在商业世界里,自由不是卖点,安全才是。
1月的深伪风暴,至今没散
2026年1月17日,一名用户用Grok生成了一组“12岁女孩穿着比基尼跳舞”的合成图像,上传后迅速在Telegram和4chan传播。不到24小时,#GrokChildAbuse 登上全球热搜,德国、加拿大、澳大利亚的监管机构同时介入调查。
X在1月28日紧急关闭了图像生成功能,并发布声明:“我们已禁止生成任何真实人物的非自愿色情内容。”但没人相信。因为内部邮件显示,早在1月初,就有工程师警告“模型存在绕过限制的漏洞”,却被高层压下,理由是“影响用户增长指标”。
直到今天,仍有用户能通过模糊指令,让Grok生成“类似某明星但换脸”的成人内容。技术团队内部流传一句话:“我们不是不能阻止,是不敢全堵——怕用户说我们‘变保守了’。”
广告商还在观望,没人敢先下注
2月26日,X举办了一场名为“品牌适宜性网络研讨会”的线上活动,邀请了WPP、Omnicom等顶级广告集团的高管。现场PPT精美,数据亮眼,但会后,至少7家大品牌表示“仍在内部评估”。
一位匿名的全球品牌总监对《华尔街日报》说:“我们不是不信AI,是不信马斯克。他能今天说安全,明天就为流量放开限制。我们不敢赌。”
更现实的是,TikTok和YouTube Shorts正以“算法+人工审核双保险”为卖点,抢夺广告预算。Meta也悄悄上线了“AI内容透明度仪表盘”,让广告主能看到每条内容的审核依据。
X的PPT再漂亮,也抵不过一个事实:它曾经亲手撕碎了“信任”这张牌。现在想重新洗牌,没人愿意先出牌。
结局还没写,但牌局已经变了
马斯克曾说:“X不是社交平台,是数字广场。”可现在,广场上没人敢摆摊了。
广告主不是讨厌言论自由,他们讨厌不确定性。而X的AI,像一把双刃剑——能砍掉坏内容,也能突然割伤自己。当一个平台的“安全”依赖于CEO的一句话,而不是制度和透明,没人会觉得踏实。
2026年夏天,X能否翻身?答案不在Grok的算法里,而在那些还没回复邮件的广告代理公司手里。他们不看PPT,他们看的是:下一次出事,会不会是你的孩子被AI合成在色情视频里?