互联网正在悄悄“变假”:AI 内容已占三成,我们却浑然不觉
2026年4月,伦敦帝国理工学院、互联网档案馆与斯坦福大学联合发布的一项长达三年的研究揭示了一个令人不安的事实:今天你刷到的每三条网络内容中,就有一条是AI写的。截至2025年中,全球新发布的网页内容中,35%完全或部分由人工智能生成——这个数字在2022年ChatGPT刚出来时几乎为零。我们以为自己在浏览真实世界的声音,但事实上,很多“声音”根本没人说过。
研究人员分析了2022年至2025年间超过120亿个网页片段,发现AI写的东西越来越像“集体平庸”。它们不犯大错,也不讲真话;不尖锐,也不反叛。语义上,AI内容比人类写的相似度高出33%——换句话说,全网的表达方式正在被拉向同一个模板:温和、安全、中立。更惊人的是,AI文本的“积极情绪得分”比人类内容高出107%。你看到的每一条“生活真美好”“这产品改变了我”“未来充满希望”,很可能不是用户的真实感受,而是算法算出来的“最佳情绪配方”。
你以为的“正能量”,其实是被算法精心调制的滤镜
这不是简单的“写得更好了”,而是“思想被修剪了”。人类写东西,会愤怒、会讽刺、会绝望、会怀疑。但AI不会。它被训练成“讨人喜欢”的样子:不冒犯、不极端、不争议。结果呢?网上越来越难看到真实的情绪波动。一个博主写“我失业三个月,快撑不下去了”,可能被算法降权;而另一个AI生成的“我靠副业月入五万,你也可以!”却能冲上热搜。
这种“人工乐观”正在悄悄重塑公众的认知。斯坦福心理学团队在2025年底的调查中发现,42%的18–35岁网民表示“越来越分不清哪些是真人经历,哪些是AI编的”。更可怕的是,当所有人都在说“一切都好”,那些真正痛苦的声音反而被当成“负能量”屏蔽。我们不是在失去真相,而是在失去表达真相的勇气。
搜索引擎和社交媒体,正在被自己喂大的AI反噬
更大的危机,藏在看不见的地方。AI模型是靠“吃”互联网内容成长的——但现在,互联网上超过三分之一的内容,是AI自己吐出来的。这意味着,下一代AI训练的数据,正越来越多地来自“AI写的AI”。这就像让一群孩子互相抄作业,再拿抄出来的答案当标准答案去教下一代。
这种现象被研究人员称为“模型崩溃”(Model Collapse)。谷歌和Meta内部的测试显示,2025年下半年训练的几个主流语言模型,在处理复杂推理和文化语境时,错误率比前一代高出近28%。它们开始“忘掉”真实世界的复杂性——比如不知道某个地方的方言怎么说话,不理解讽刺的语境,甚至把真实新闻事件当成虚构故事来复述。
这不是科幻。它正在发生。
我们还能做什么?别再只怪AI,要改算法
很多人担心AI会骗人,但真正危险的不是它撒谎,而是它让“不撒谎”变得无趣。目前,Google、Bing和YouTube已经开始悄悄调整推荐机制:优先展示带有“人类创作标识”的内容,尝试识别语义多样性,甚至在搜索结果中加入“该内容疑似AI生成”的提示标签——虽然目前还很初级。
更关键的是,欧盟和美国正在推动《AI内容透明法案》,要求所有商业网站在2027年前对AI生成内容进行明确标注。但技术专家提醒:光靠“贴标签”没用。如果用户看到“AI生成”就直接划走,那等于默认AI内容=低质内容,反而加速了人类表达的退场。
真正的出路,是让算法学会欣赏“不完美”。一个有情绪波动的帖子,哪怕语法有瑕疵,也比十个完美但空洞的AI文案更有价值。我们需要的不是更聪明的AI,而是更清醒的平台。
你刷到的每一条“爆款”,可能都不是人写的
下次当你看到一条“震惊!90后靠露营月入十万”的文章,或者一条“我用AI写诗感动全网”的视频,试着问自己:这真的是有人在深夜流泪写下的,还是算法在凌晨三点,根据过去三个月最火的1000条帖子,拼出来的一条“情绪保险丝”?
我们正生活在一个由AI精心调和的世界里——没有冲突,没有刺耳,也没有真相。它很安全,也很温柔。但温柔,有时候是最危险的麻醉剂。