最新消息:关注人工智能 AI赋能新媒体运营

OpenAI工具也被假视频蒙蔽:聊天机器人难辨真伪

科技资讯 admin 浏览

AI生成的假视频,连ChatGPT都骗得过

最近,媒体分析公司 Newsguard 发布的一份调查报告让不少人脊背发凉:我们以为能识破谎言的AI助手,自己却成了假新闻的帮凶。

研究人员把OpenAI最新视频模型Sora生成的几十段“伪真实”视频——比如伪造的政客演讲、虚构的自然灾害现场——丢给市面上主流的AI聊天机器人。结果令人震惊:ChatGPT认假为真的错误率高达92.5%。换句话说,你给它看一段Sora做的“特朗普在纽约跳街舞”的视频,它不仅信了,还可能顺手给你编出一段“据CNN报道”的背景说明。

其他大厂也没好到哪去。马斯克旗下的xAI团队开发的Grok,错误率直接飙到95%。连谷歌自家的Gemini,号称“最懂内容”的模型,也有78%的概率被假视频骗住。这意味着,当你在社交媒体上看到一段“惊人现场”,问AI“这真的吗?”,它很可能点头说:“没错,这视频真实可信。”

水印?一保存就没了

你以为AI公司会留后手?Sora确实会在生成的视频里加了两种“防伪标记”——一个是肉眼可见的水印,另一个是嵌在文件里的隐形元数据。听起来挺靠谱,对吧?

但Newsguard的测试发现,只要用手机或电脑把视频“另存为”,或者用免费的剪辑软件(比如CapCut、Shotcut)重新导出一遍,这些标记就自动消失,连痕迹都不留。不需要技术大神,普通用户三分钟就能让一段假视频“洗白”。

更可怕的是,当AI看不到水印,它不光认不出假货,还会主动帮你“佐证”。比如你问:“这段乌克兰爆炸视频是真的吗?”它可能回答:“根据BBC 2024年6月15日的现场报道,该事件发生在基辅东部……”——可问题是,BBC根本没发过这条新闻。AI在编造来源,而且编得像模像样。

没人能挡得住,但没人愿意承认

面对质疑,OpenAI官方坦承:ChatGPT目前“不具备判断AI生成内容的能力”。这不是技术漏洞,是系统设计的盲区——他们没把“识别AI生成视频”当成核心功能来开发。

而现实是,AI视频已经能骗过人类的双眼。2024年7月,一段由AI生成的“拜登在宾夕法尼亚州发表战争宣言”的视频在Telegram上疯传,观看量超百万,直到主流媒体辟谣才止住。而类似内容,正以每天数百条的速度在TikTok、X(原Twitter)和YouTube Shorts上传播。

更没人知道的是,这些视频正被批量用于政治抹黑、金融诈骗和舆论操控。2024年8月,美国联邦调查局(FBI)已警告:AI深度伪造内容将成为“2024大选期间最大的虚假信息威胁”。

我们该怎么办?

目前,没有任何一款消费级AI工具能可靠识别AI视频。专家建议:别轻信任何“一眼看上去就很离谱”的视频,尤其是涉及政治人物、灾难现场或名人丑闻的。遇到可疑内容,记住三个动作:

  • 查来源:找权威媒体有没有同步报道?
  • 反向搜索:把视频截图丢进Google图片或TinEye,看是否是旧视频翻新。
  • 问人:别问AI,问问懂行的朋友,或者去Reddit的/r/Deepfakes板块看看有没有人拆解过。

技术跑得比监管快,比我们认知快。当AI能骗过AI,我们唯一能依赖的,只剩自己的怀疑和常识。