2026年2月,美国纽约南区联邦地方法院的一项判决引发法律界关注。法院裁定,企业高管使用生成式AI聊天机器人生成的文件,不适用律师与当事人保密特权(attorney-client privilege),也不受工作成果保护原则(work product doctrine)保障,相关内容在诉讼程序中可能被要求提交。
根据路透社报道,此案涉及已破产的金融服务公司GWG Holdings前首席执行官兼董事长Bradley Heppner的证券欺诈案件。检方指出,Heppner曾使用Anthropic的Claude撰写与案件相关的文件并提供给律师参考。辩护方主张相关内容涉及法律策略,但检方认为,这些文件并非在律师指示下生成,且AI不具备律师身份,双方的互动不构成受法律保护的沟通关系。
主审法官Jed Rakoff指出,律师与当事人保密特权仅适用于法律咨询沟通,而AI平台不具有法律专业身份,也无法提供法律意见,因此不在保护范围内。法院同时认为,用户与AI的互动不构成合理的保密期待,因为服务条款已明确载明平台可能访问或披露用户数据。法院最终裁定相关文件不受保护,Heppner须提交31份通过Claude生成的文件。
判决公布后,多家美国律师事务所提醒企业,与生成式AI工具的互动内容未来可能在刑事或民事诉讼中被调取,影响诉讼策略。
另一方面,美国密歇根州联邦地方法院一起民事案件则出现不同见解。该案中,原告未聘请律师,而是以自诉(pro se)身份提起诉讼,被告要求调阅其与ChatGPT的对话记录。主审法官Anthony Patti在今年2月裁定,相关内容属于整理资料与厘清思路的过程,性质接近个人笔记,可视为工作成果,不在可调阅范围内。
法院同时指出,在此情境下,生成式AI属于辅助工具,其输出更接近使用者思维的延伸,而非与第三方的沟通。
总体而言,两起判决显示生成式AI在法律上的定位仍在发展中,是否受保密特权或工作成果保护,将取决于使用情境,包括是否在律师指示下使用、内容性质等因素。
此外,OpenAI与Anthropic的服务条款也提到,在特定情况下可能与第三方或监管机构共享用户数据,并建议在法律等专业领域,仍应咨询具备资质的专业人士,而非仅依赖AI的回应。