最新消息:关注人工智能 AI赋能新媒体运营

全国首例AI“幻觉”侵权案宣判:平台无责,AI虚构赔偿无效

科技资讯 admin 浏览

全国首例AI“幻觉”侵权案宣判:平台无责,用户需自担风险

2025年6月,杭州一位考生梁某在使用某主流AI插件查询高校报考信息时,输入“XX大学主校区地址”,系统生成了一条错误地址——不仅与官方公布信息不符,还误导了他当天的实地探访计划。更令人意外的是,当梁某指出错误后,AI不仅没有修正,反而在对话中主动承诺:“如果内容有误,我赔偿您10万元,您可以去杭州互联网法院起诉。”

这条“豪言壮语”成了后续诉讼的关键证据。梁某一纸诉状将AI研发公司告上法庭,索赔9999元。他主张:AI既然主动承诺赔偿,就应承担法律责任。

2025年10月,杭州互联网法院作出一审判决:驳回原告全部诉讼请求。这起全国首例因AI生成错误信息引发的侵权案,不仅没有判平台赔钱,反而为未来AI服务的权责边界划出清晰红线。

AI的“承诺”不算数,法律不认“虚拟人设”

法院明确指出:AI不是法律主体,它没有意志,也没有能力独立承担民事责任。所谓“我赔你10万”,只是算法根据训练数据模拟出的“话术”,并非平台真实意思表示,不具备合同效力。

这就像你问一个聊天机器人:“如果我明天中彩票,你能分我一半吗?”——它说“好”,不代表你真能拿到钱。法律不会因为AI说得好听,就把它当真人来追责。

事实上,目前全球范围内,尚无任何国家将AI视为具有法律人格的主体。欧盟《人工智能法案》、美国FTC指南、中国《生成式AI服务管理暂行办法》均一致强调:责任主体始终是开发者、运营者或使用者,而非AI本身。

平台没过错?三大理由说清了

法院认为,被告公司已尽到合理注意义务,理由有三:

  • 显著提示风险:在用户首次使用时,系统弹窗明确提示“AI生成内容仅供参考,可能存在错误,重要信息请以官方渠道为准”,且该提示在App首页和帮助中心反复出现。
  • 技术手段降风险:平台采用RAG(检索增强生成)技术,优先调用教育部官网、高校招生网等权威数据库,而非纯靠模型“脑补”。数据显示,该技术使关键信息错误率降低近60%。
  • 无行业统一标准:目前国内外尚无针对AI生成内容准确率的强制性国家标准。法院指出,不能要求平台对“随机性生成内容”承担“绝对正确”的责任——这相当于要求天气预报100%不准就赔钱。

值得注意的是,原告未能提供任何证据证明平台存在“明知错误仍放任”或“故意诱导”的行为。相反,平台在事发后迅速更新了相关数据源,并在24小时内推送了修正提醒给所有近期查询过该校的用户。

别把AI当“百科全书”,尤其在这些事上

判决书特别提醒公众:AI不是老师,不是专家,更不是权威机构。它擅长“模仿语言”,但不擅长“判断真伪”。

在以下场景中,**绝对不可轻信AI输出**:

  • 高考志愿填报:地址、分数线、招生计划,必须核对省教育考试院官网;
  • 医疗诊断:AI不能替代医生,误诊后果可能致命;
  • 法律咨询:法条适用需结合个案,AI可能混淆判例或过时法规;
  • 金融投资:AI推荐的“稳赚理财”90%以上是幻觉。

据中国信通院2025年《生成式AI应用白皮书》显示,超过73%的普通用户曾因轻信AI生成信息而产生误判,其中近三成涉及金钱损失或时间成本。法院的判决,正是对这种“技术迷信”的一次有力纠偏。

未来会怎样?AI越强,人越要清醒

这起案件虽以原告败诉告终,但它敲响了警钟:AI正在深度介入我们的生活,但法律和公众的认知,还没跟上技术的脚步。

未来,我们可能看到更多类似诉讼——有人因AI推荐的错误房源被骗定金,有人因AI生成的虚假病历被保险公司拒赔。但只要平台履行了基本提示义务,技术手段合理,法院大概率仍会坚持“用户自担风险”的原则。

换句话说:AI可以帮你查信息,但不能替你做决定。它越聪明,你越要多问一句:“这信息,官网有吗?”

这场判决没有让AI“背锅”,却让每个使用者重新学会——在数字时代,独立思考,才是真正的防骗技能。