最新消息:关注人工智能 AI赋能新媒体运营

200专家联名呼吁YouTube整治AI生成儿童内容

科技资讯 admin 浏览

200多位儿童专家联名发声:YouTube上的AI视频正在伤害孩子

近日,超过200名来自哈佛、斯坦福、加州大学洛杉矶分校等顶尖院校的儿童心理学家、教育学家和儿科医生,联合签署一封致谷歌和YouTube的公开信,强烈要求平台立即停止向未成年人推荐任何由人工智能生成的视频内容。这封信不仅获得美国儿科学会(AAP)、儿童媒体协会(CMC)等权威机构背书,更引发全美家长群体的广泛共鸣。

信中指出,如今在YouTube Kids和主站儿童相关内容中,充斥着大量打着“早教”“启蒙”“英语启蒙”“认知训练”旗号的AI生成视频——画面中卡通动物机械重复着毫无逻辑的句子,背景音乐忽大忽小,角色动作僵硬扭曲,内容甚至前后矛盾。这些视频被统称为“AI垃圾内容”,它们并非来自真实教师或教育团队,而是由少数公司用自动化工具批量生产,靠算法推送精准触达低龄用户。

一位来自宾夕法尼亚大学的儿童发展研究员表示:“我们见过孩子盯着屏幕一小时,眼睛不眨,却完全没吸收任何信息。他们不是在学习,是在被‘喂’一种无意义的视觉噪音。”

youtube 油管

孩子分不清真假,家长却无从防范

专家们最担忧的,不是内容“不好”,而是孩子根本无法识别这些视频是假的。2岁以下幼儿的大脑尚在发育关键期,对“真实”与“模拟”缺乏判断力。一项2023年《JAMA Pediatrics》的研究显示,频繁接触AI生成的虚拟角色,会让孩子在现实社交中出现注意力分散、情绪反应迟钝、语言模仿能力下降等问题。

更令人震惊的是,一些账号通过AI生成“假教师”形象,伪造“哈佛教育专家”“蒙特梭利认证”等头衔,甚至模仿知名儿童品牌(如Cocomelon、Blippi)的风格,骗取家长信任。有家长反馈,孩子看完这些视频后,开始对着镜子自言自语,模仿视频里不自然的语调,甚至拒绝与真人互动。

“这不是娱乐,这是数字时代的新型儿童心理风险。”一位纽约的幼儿园教师在社交媒体上写道:“我班上三个孩子,现在见到真人老师都会问:‘你是真人吗?还是YouTube里的?’”

YouTube回应:标注无效,审核形同虚设

面对舆论压力,YouTube回应称已在儿童版应用中“严格筛选”AI内容,并要求创作者“明确标注”视频为AI生成。但现实情况是:这些标注往往以极小字体出现在视频角落,许多婴幼儿根本看不懂文字;而家长也很难在海量视频中逐一辨别。

更讽刺的是,据《The Verge》今年3月的调查,超过70%的所谓“AI标注”视频,其标签是创作者自己填写的,平台几乎不进行人工复核。一些账号甚至用“AI生成”作为营销话术,宣称“每天更新100个新视频,专为3岁宝宝设计”,实则靠算法堆量收割广告收益。

一位曾为YouTube制作AI儿童内容的前员工向媒体透露:“我们团队一天能生成500条视频,每条成本不到5美元。只要标题带‘ABC字母’‘数到10’‘哄睡音乐’,就能冲上推荐榜。没人关心内容有没有意义。”

立法倒计时:2026年,AI儿童内容或将被全面禁止

这场争议已从舆论层面升级为政策议题。美国联邦贸易委员会(FTC)已启动对YouTube儿童内容生态的专项调查,欧盟《数字服务法案》(DSA)也将AI生成儿童内容纳入重点监管范围。加拿大和澳大利亚正推动立法,拟禁止向12岁以下儿童推荐未经人工审核的AI视频。

2026年,将是全球科技公司必须交出答卷的关键节点。届时,若YouTube仍无法证明其AI内容对儿童无害,或将面临巨额罚款、内容下架,甚至被强制剥离儿童推荐算法。

对无数普通家庭而言,这不只是平台该不该管的问题,而是我们是否还能信任——当孩子打开YouTube时,屏幕那头,究竟是教育,还是精心包装的数字毒品?