联邦法官与人工智能

Avatar
Lisa Ernst · 25.10.2025 · 技术 · 5 分钟

将人工智能(AI)在美国联邦司法体系中的整合是一个复杂领域,带来机会与挑战。自2025年起,存在一份内部过渡建议,允许使用AI,但要求明确的谨慎和个人责任。同时,联邦法官律师事务所在AI使用中的错误引发了关于规则、责任和透明度的广泛辩论。关于新证据规则707的拟议,该规则将对“机器生成的证据”进行更严格的审查,现正处于公开征求意见阶段。

介绍

“Federal judges ai” 描述了美国联邦法院与人工智能之间的张力。这包括在内部工作中的 AI 使用(研究、起草)、在当事方的诉状中的使用,以及在法庭上作为可能的证据对象。生成式 AI 可以提供想法,但也容易出现来源和引证的幻觉。一个突出的例子是案件 Mata v. Avianca im Jahr 2023, , 在该案中,虚构的先例导致了制裁。美国最高法院首席法官约翰·罗伯茨在2023年底强调了 AI 对获得司法公正方面的机会,但在使用 AI 时也强调需要人类的判断力和谦逊。这些 美国律师协会在2024年发布了第一批伦理准则, ,这些准则允许运用 AI,但要遵守胜任能力、保密、沟通和适当费用。

监管环境

在2023年5月至6月,联邦法院对 Avianca 事件作出反应。德州北区的 Brantley Starr 法官率先要求对在书面陈述中使用基因-人工智能(Gen-KI)进行“强制认证”,该认证要求对每一处 AI 生成的段落进行人工审阅和确认。宾夕法尼亚州和伊利诺伊州也随后有类似的披露义务。2024/25 年,其他法院颁布了类似的命令;相关概览提供 Stanford Law 以及关于大型律师事务所的概览与追踪。

2025年7月31日,联邦法院管理局(AO)向所有联邦法院发布了临时性指引。 这些指引允许使用和试验 AI,但禁止将核心决策委托给 AI。AI 支出必须独立验证,用户仍然负全部责任。AO 建议法院界定可使用获准工具的本地任务。 FedScoop 报道了这些指引。

与此并行,证据法推动对 AI 支出进行分类。新证据规则707的拟议草案于 2025年6月10日,建议公开发布。; ; 征求意见阶段自2025年8月15日起至2026年2月16日结束。目标是,在没有人工专家作证的情况下,将机器生成的证据置于与 Rule 702 下专家证词同等的可靠性标准之下。一个司法小组已在2025年5月2日公开重申了这一方向。 2025年5月2日公开重申.

在2025年10月,两位联邦法官, Julien Neals(新泽西北区)及 Henry Wingate(密西西比南区),确认雇员使用 ChatGPT 或 Perplexity 进行起草工作。这导致了错误的命令被撤回,并对内部规则进行了收紧。 ReutersAP News 对此进行了报道。

数字时代的正义:人工智能在司法中的整合的象征性描绘。

Quelle: the-decoder.com

数字时代的正义:人工智能在司法中的整合的象征性描绘。

挑战与机遇

以开放性与谨慎态度对待AI的做法有多方面原因。首先是质量保障。生成式AI可以加速流程,但幻觉式的引文会危及程序的公正并产生制裁风险。 Avianca制裁 表明法院会对 Rule-11 违规行为进行惩罚。第二点:保密和信息技术安全。AO 指出对敏感数据的保护,并呼吁对 AI 工具的采购和安全流程进行明确规定。第三点:联邦多样性作为测试实验室。司法行政当局鼓励地方试验,以探索负责任的使用领域。这一务实的方法整合了试点项目和知识共享。第四点:证据法的明确性。拟议的 Rule 707 旨在防止看起来有说服力但方法上有疑问的 AI 输出扭曲程序。

Quelle: YouTube

现有的联邦司法系统内部过渡性指引自 31. Juli 2025 表明该使用是被允许的,但禁止将核心职能委托给AI,并要求独立验证。多位联邦法官要求在使用生成式AI于书面陈述时进行披露或认证,最先提出的是 Brantley Starr 于 30. Mai 2023. 关于 FRE 707 (机器生成的证据)自2025年8月15日起已向公众征求意见。就所有联邦法院而言,普遍的披露义务尚不明确,因为此类义务在法官/法院层面仍然是相关的。AO 指南已向参议院作了描述,但全文尚未公开提供。声称“联邦法官让 AI 做出判决”是错误的,因为 AO 明确反对将核心功能委托给 AI。同样,认为“ Avianca 只是媒体炒作,无后果”的看法也是错误的,因为法院确实实施了实际的制裁。

法庭上人机共存:司法未来的愿景。

Quelle: law.com

法庭上人机共存:司法未来的愿景。

实际含义

对于在美国联邦程序中工作的人来说,关键是在每次提交前, 当地关于人工智能的现行指令(Standing Orders) 进行核查,因为披露、认证和审查义务因地而异。每一个 AI 输出都必须以可信来源进行核验,因为 Rule-11-Sanktionen 是现实存在。重要的是使用符合数据保护要求的工具,因为 AO 强调采购、安全与问责。在证据策略方面,正在发展的是 FRE 707 需要密切关注,因为机器输出的门槛将提高。

Quelle: YouTube

尚待解决的问题涉及最终联邦指南的形式和可获得性,因为 AO 提到临时指南,全文尚未公布。同样,最终版本的 FRE 707 在征求意见后的日常应用中与 Rule 702 的互动尚不清楚。此外,法院对未来 AI 错误的系统性记录仍然是一个悬而未决的问题,因为 AO 目前没有在某些破产情境之外的全国性统计数据。

未来的法庭:技术是法律推理的一个不可或缺的组成部分。

Quelle: freepik.com

未来的法庭:技术是法律推理的一个不可或缺的组成部分。

结论与展望

发展呈现出一条清晰的路径:在明确的人类责任下允许使用 AI,书面材料的透明度不断提高,以及通过 FRE 707. 对从业者来说,这意味着了解当地规定,明智且节制地使用 AI,独立证明每一个输出,并积极跟踪证据法和职业准则领域的进展。这些 Stanford-Übersicht, 这些 Kommentierungsphase zu FRE 707 ABA-Ethik-Leitlinien 是在此过程中的重要联系点。

Teilen Sie doch unseren Beitrag!