最新消息:关注人工智能 AI赋能新媒体运营

中国首例AI大模型名誉侵权案终审:百度被判道歉

科技资讯 admin 浏览

AI生成“假判决书”?中国首例AI名誉侵权案终审落槌

2024年夏天,江苏南京的一纸判决,让无数使用AI搜索工具的人心头一紧。

执业律师李小亮,平日里靠专业和信誉立足行业。某天,他像往常一样用百度“AI智能回答”搜索自己的名字,想看看网上对自己的评价。结果弹出的内容却让他瞬间僵住:“李小亮,因涉嫌职务侵占,被判处有期徒刑三年。”

这根本不是事实——李小亮从未涉刑,更无任何司法记录。可AI却像一个信誓旦旦的“知情人”,把虚构的罪名、莫须有的判决日期,甚至“法院名称”都编得有板有眼。更可怕的是,这个回答出现在搜索结果的首位,普通用户根本分不清真假。

“一个律师,被AI说成罪犯,还被公之于众?”李小亮说,“这不是误判,是毁掉职业生涯的子弹。”

他没有沉默。2023年,他将百度网讯科技告上法庭,要求公开道歉、赔偿精神损失,并彻底下架错误内容。这起案件,被业内称为“中国AI名誉侵权第一案”。

法院:AI不是免责盾,平台必须负责

2024年6月,南京市中级人民法院作出终审判决:百度公司构成名誉侵权。

法院明确指出:AI大模型不是“自动回复机器”,而是由企业运营、训练、部署的商业产品。当它输出的内容足以误导公众、损害他人社会评价时,运营方不能以“算法自动生成”为由推卸责任。

判决书特别提到,百度在明知AI存在“幻觉”(即虚构事实)风险的前提下,未建立有效的事实核查机制,也未对涉及个人身份、司法信息等高敏感内容设置拦截阈值,存在明显过失。

最终,法院判决百度在十日内向李小亮出具加盖公章的书面道歉信,并在“百度AI智能回答”产品首页显著位置发布致歉声明,持续不少于30天。同时,驳回百度关于“技术中立”的上诉理由。

不只是道歉,更是行业警钟

这不是一起孤立事件。据中国信通院2024年发布的《大模型安全与合规白皮书》,超过67%的中文大模型在测试中曾生成过虚假的名人言论、伪造的司法判决或捏造的医疗建议。其中,涉及“个人犯罪记录”的虚假信息,是用户投诉的TOP3类型。

就在判决公布后一周,杭州一名企业主也向法院提起诉讼,称AI在回答“公司法人是否涉诉”时,错误生成了“已被列入失信被执行人名单”的虚假信息,导致其融资计划流产。

如今,百度已悄悄更新了其AI回答的提示语:在涉及人物、事件、司法等敏感内容时,新增“本回答由AI生成,可能存在不准确信息,请以官方渠道为准”字样。但李小亮说:“这不是提醒,是免责声明。真正的责任,是别让AI说谎。”

普通人该怎么做?

这起案件给每个普通用户提了个醒:

  • 不要轻信AI给出的“权威答案”,尤其是涉及法律、医疗、财务等关键信息;
  • 遇到可疑内容,务必通过政府官网、裁判文书网、权威媒体交叉验证;
  • 若发现AI捏造你的个人信息,保留截图、搜索记录,及时联系平台并考虑法律维权。

技术没有善恶,但使用技术的人有责任。当AI能轻易“造谣”一个人,我们离真正的信任社会,还有多远?

李小亮的胜诉,不是终点,而是一道门槛——AI不能成为谣言的加速器,平台也不能躲在代码后面装睡。