当AI公司把五角大楼告上法庭:Anthropic打响“原则之战”

一场罕见的对峙:一家AI初创公司,把美国国防部告上了法庭

这不是科幻电影的情节——而是真实发生的科技界重磅事件。本周四,AI安全领域的明星公司Anthropic正式宣布:它将就美国国防部(DOD)将其列为“供应链风险实体”一事提起法律诉讼。这不仅是近年来少见的私营AI企业公开挑战联邦国防机构的案例,更是一场关于技术主权、伦理红线与国家安全边界的深度博弈。

🔍 为什么会被“拉黑”?根源不在技术,而在价值观分歧

国防部的这一认定,并非源于Anthropic模型存在漏洞或数据泄露,而是一场持续数周的紧张协商破裂后的结果。核心矛盾直指一个根本性问题:谁来决定AI该被用在哪儿?

Anthropic始终坚持两条不可逾越的红线:
绝不开发或部署用于大规模监控的AI系统
绝不参与任何完全自主武器(即“杀手机器人”)的研发或支持

但五角大楼提出的合作前提,是要求对Anthropic模型拥有“所有合法用途”的无限制访问权——包括潜在的、尚未明确界定的军事应用场景。在Anthropic看来,这等于要求它放弃自身制定的《AI宪法》式伦理框架;而在国防部眼中,这种限制可能构成“不可接受的供应链不确定性”。

⚖️ 法律战不是赌气,而是基于扎实依据

CEO达里奥·阿莫代伊(Dario Amodei)在声明中明确指出:该认定不仅违背Anthropic的实际运营事实,更在程序与法理上“站不住脚”。他援引《国防授权法案》相关条款强调:即便出于安全考量,政府也必须采用“限制性最小”的手段——而当前一刀切地将整家公司贴上“风险标签”,既未提供具体证据,也未给予申辩机会,明显超出必要范围。

值得注意的是,这一标签仅直接影响与陆军部有直接合同关系的客户,对全球绝大多数企业、开发者及政府非国防部门用户毫无波及。Anthropic特意澄清,此举绝非“断供”,而是捍卫合作边界。

🛡️ 原则不退让,服务不中断:一场教科书级的危机管理

更值得玩味的是Anthropic的应对节奏——一边亮出法律利剑,一边伸出协作之手。

为避免影响一线国防人员的关键任务,公司承诺:在过渡期内,将以象征性成本(nominal cost)继续向国防部提供模型访问与技术支持。这不是妥协,而是一种清醒的平衡术:守住伦理底线,也不让国家安全陷入技术真空。

📝 邮件风波落幕:CEO公开修正,重申建设性立场

此前引发广泛争议的内部邮件——其中阿莫代伊曾将OpenAI与国防部的合作称为“安全作秀”(security theater)——也在本次声明中得到正式回应。他坦承,那封邮件写于公司融资压力、监管审查与舆论聚焦多重夹击下的“艰难时刻”,属于情绪化、片面的即时反应,“不代表我深思熟虑后的判断”。

他特别强调,Anthropic尊重OpenAI在AI安全领域的长期投入,并呼吁整个行业超越零和叙事,共同推动可验证、可审计、可问责的军民两用AI治理标准。

💡 这不只是Anthropic的官司,更是AI时代的分水岭时刻

这场诉讼或将定义未来十年AI与国家权力的关系范式:

  • 当一家私营公司敢于以法律为盾,拒绝模糊的“安全理由”对其价值体系的侵蚀;
  • 当“不做什么”比“能做什么”更需要勇气与制度保障;
  • 当“可控的协作”开始取代“无条件的接入”成为新型政企合作的关键词……

我们正站在一个新共识形成的临界点上。而Anthropic选择走上法庭的第一步,或许正是AI真正走向成熟的第一课。

作加

类似文章