《纽约时报》诉OpenAI诉讼案作为标志性版权争议引发广泛关注,但其已迅速演变为影响企业人工智能(AI)与数据治理模式的全球性数据隐私冲突。2025年5月13日,地方法官奥娜.T.王(Ona T. Wang)(Ona T. Wang)签发了保护令,要求OpenAI保留所有ChatGPT对话日志——此举影响了全球超4亿用户——无意间创造了该案过去两个月主导AI数据管理的分水岭时刻。当值主审法官近期确认的此项命令,标志着法院首次如此大规模强制保存AI生成内容,迫使企业立即重新审视隐私承诺、国际合规义务及AI系统与用户数据的根本关系。
其影响远超OpenAI的法庭斗争。部署AI解决方案的企业管理者正面临数据主权、诉讼应对预案以及创新与法律合规平衡的前所未有挑战。尽管关于OpenAI数据保存义务的争议刚刚开始,本案揭示了AI与数据治理框架中亟待解决的核心问题,为探索AI技术、隐私权与法律取证义务复杂交织的安排提供了早期洞察。
撼动4亿用户的AI数据保护令
当OpenAI于2022年11月推出ChatGPT时,其创下有史以来最快用户增长纪录。ChatGPT至今仍是全球使用最广泛的AI聊天机器人,周均用户近8亿。伴随其迅猛发展,OpenAI也经历了不少争议,包括《纽约时报》2023年12月提起的版权侵权诉讼——该诉指控OpenAI非法使用数百万篇《纽约时报》文章训练包括ChatGPT在内的AI模型。
尽管《纽约时报》诉OpenAI案提出诸多值得关注的新型版权问题,但当《纽约时报》指控OpenAI通过删除可能证明版权侵权的用户对话系统性销毁证据时,更广泛的数据保存争议就此爆发。2025年5月13日,王发布全面保护令,指令OpenAI“保存并隔离所有本将被删除的输出日志数据”,无论该删除由用户请求抑或隐私法规强制要求。此命令对几乎所有使用AI的企业具有重大影响。
从表面看,该命令在AI诉讼领域具有前所未有的适用范围。OpenAI立即向法院提出重新审议请求,阐明遵守保全命令与应对全球合规要求间的根本冲突。OpenAI抗辩称,该保全令将迫使其“无视对全球数亿用户、企业、教育机构及政府承担的法律、契约、监管和道德承诺——尽管无任何证据表明这些极端措施能推进诉讼进程”。OpenAI同时指出,其“数据基础设施结构复杂,保留原定删除的数据需耗费大量工程改造、基础设施变更及算力资源”。
王驳回了OpenAI的重新审议动议,但允许其就争议问题提交补充简报以备听证。OpenAI的核心抗辩理由包括:
· 该命令要求保存600亿条无法有效检索的对话记录;
· 原告“(过度)预估导致仅0.006%的数据可能具备关联性”;
· 合规技术成本将耗费数月工程周期及数百万美元的基础设施支出;
· 用户有理由期望已删除的聊天记录不会被删除。
经5月27日听证,法院澄清无意进行“全面保全”,保全义务仅适用于特定ChatGPT服务方案。OpenAI同时声明将探索对非美国用户实施地域排除机制,以避免与《通用数据保护条例》(GDPR)等国际隐私法规冲突。尽管表示愿与原告协商更合理的抽样方案,OpenAI最终选择向地区法院提起上诉。 OpenAI公开回应框定了新出现的隐私考虑因素和风险。
针对王法官裁决的不满,OpenAI向地区法院法官西德尼.斯坦恩(Sidney Stein)正式提交异议动议,质疑证据保全令的合法性。其核心主张包括三大论点:
首先,没有实质性证据表明用户确实通过ChatGPT获取了受版权保护的新闻内容,而原告也承认这一点“很困难”,OpenAI主张无充分证据证明侵权行为实际发生;其次,保全令造成了不成比例的负担,需要花费数月的工程时间来推翻对数亿用户的隐私保护(当然成本也很高);最后,OpenAI认为保全令在程序上是不公平的,因为它是基于已被证伪的与诉讼相关的数据破坏指控。
除法律抗辩外,OpenAI于2025年6月5日就保全令发布公开声明,阐明受影响用户范围及上诉期间应对方案。该声明确认以下用户数据被纳入保全范围:ChatGPT免费版、Plus版、专业版及团队版所有对话记录,未签署“零数据保留协议”用户的应用程序编程接口(API)使用数据亦受到影响。ChatGPT企业版及教育版用户数据不在保全之列。依保全令留存的数据将“存储于独立安全系统”,仅限“经审计的小型法务安全团队”基于诉讼目的访问。
OpenAI首席执行官萨姆.奥特曼(Sam Altman)通过社交媒体主张设立新型“AI特权”,要求保护敏感对话免于司法披露。尽管美国法院尚未承认此类特权,此举预示若法院最终强制披露用户聊天记录,OpenAI可能以此作为一种抗辩策略。
斯坦恩的裁决维持了保全令及其利害关系。他听取了OpenAI对王保全令的反对意见的口头辩论。在听证会上,斯坦因法官强调,OpenAI的使用条款允许为法律合规保全数据,且用户隐私权益不能对抗法定证据保全需求。他还接受了《纽约时报》的观点,即检索输出日志对查明用户是否可能参与和隐瞒版权侵权行为或使用ChatGPT生成侵权新闻文章具有关键证明价值。基于此,斯坦因当庭驳回OpenAI异议并维持保全令效力。
企业AI治理与应用的深远影响
尽管随着斯坦恩作出不利于OpenAI的决定性裁决,这起证据开示争议已超越其早期阶段,但《纽约时报》诉OpenAI的保全令冲突揭示了远超版权诉讼范畴的企业AI治理的重大挑战。采用AI解决方案的机构现在必须考虑传统数据治理框架未曾预见的证据开示义务。OpenAI的早期困境也表明,AI系统创造了全新类别的电子存储信息,需要在诉讼中进行专门处理。
对使用OpenAI等供应商的企业而言,首要问题是明确用户数据被保留的范围。本案显示供应商隐私承诺可能与证据开示令冲突,使企业用户面临与AI供应商长期隐私协议相悖的数据披露要求。虽然斯坦恩法官指出依法律要求保留信息是供应商协议的常规条款(包括OpenAI政策),但企业应考虑增设附加条款,要
数据被纳入保全(被法院强制保全)时应及时发出告知,并提供反对数据披露的机会。ChatGPT企业版虽未受影响,但未签署“零数据保留协议”的API使用数据仍受到影响。此类协议通过要求供应商不保留交互记录,从根本上规避保全义务。
此次数据保全争议同样突显了公司为简化证据开示或调查可操作性所能采取的步骤。前端数据标记与分类在管理电子存储信息(ESI)方面一直很重要,但随着AI系统可能产生海量数据,它已成为关键的风险管理工具。在针对其保全令举行的听证会上,王担心OpenAI未能收集或提供足够信息以判定自动销毁的输出日志是否具有关联性。虽然大多数聊天机器人在开发时,诉讼保全通知和保全令可能并非首要考虑,但如今每家主要模型供应商都卷入了诉讼,并且也很可能持续成为第三方证据调取的目标。大多数市售聊天机器人和API会拒绝响应某些话题——例如要求制造有害内容——因此类似的基于提示词(prompt-based)的标记或许有助于更早识别潜在相关的内容。这在一开始可能需要做更多的工作,但可能有助于为将证据开示限制在更易于管理的水平而不是在诉讼中期对其进行逆向工程以创造一个站得住脚的基础。积极主动的措施也可能成为转移与这些证据开示争议相关成本的一个因素。
结论与待观察问题
《纽约时报》诉OpenAI案中的数据保全令是AI治理的重要里程碑,它将抽象的隐私担忧转化为紧迫的操作挑战。对于4亿ChatGPT用户及曾以为已删除对话永久消失的企业而言,此案颠覆了关于AI交互隐私的基本认知。企业用户必须重新评估供应商关系和AI风险管理策略。
随着《纽约时报》开始审查被保全的日志,本案下一阶段将揭示大规模AI数据调取的实际挑战及潜在宪法争议。AI人工智能公司如此大规模地保存用户数据,将不可避免地招致诉讼当事人寻求第三方取证,以获取对手保存的人工智能对话日志,从而进一步牵涉到数据隐私问题,甚至AI特权问题。OpenAI持续上诉表明,此案终或需上诉法院裁决,可能为全美AI数据治理确立先例。
其影响远超诉讼策略范畴。该保全令还揭示了一系列新问题,这些问题将成为并购交易尽职调查考量、合资企业决策以及AI系统处理敏感数据的供应商选择的因素。评估潜在收购的公司现在不仅要评估AI系统的能力,还要评估其诉讼风险和数据保留架构。同样,之前看似谨慎的供应商合同,如果缺乏有关披露合作、数据隔离或特定司法管辖区隐私合规性的规定,未来就可能证明是不够的。OpenAI案例揭示了AI应用风险在技术、法律和声誉方面的关联性,并强调了一个事实,即传统的治理框架可能并不完全具备处理此类复杂问题的能力。
对于正在探索这一领域的组织来说,教训是显而易见的:AI的整合不仅需要创新战略,还需要了解既定的法律原则是如何随着新兴技术的发展而演变的。那些认识到这一现实并采取相应行动的组织将发现自己已经为未来不可避免的披露挑战做好了更充分的准备。(编译自www.jdsupra.com)
翻译:吴娴 校对:王丹
免责声明:本网转载或编译文章原文均来自网络,不代表本网观点或证实其内容的真实性。若有来源标注错误或涉及文章版权问题,请与本网联系,本网将及时更正、删除,谢谢。