一家領先的人工智慧實驗室與美國國防部門之間日益加劇的緊張局勢,已升級為圍繞 Anthropic AI 與戰場應用的高風險衝突。
Anthropic 拒絕了美國國防部要求其移除系統中關鍵 AI 安全限制的要求,儘管其 2 億美元合約現在已岌岌可危。該公司已明確表示,不會在與國防部關於如何在軍事網路中部署其先進模型的爭議中退縮。
這家新創公司的競爭對手 OpenAI、Google 和 xAI 在 2023 年獲得了高達 2 億美元的類似國防部獎項。然而,這些公司同意讓五角大廈在軍方的非機密環境中將其系統用於所有合法任務,為政府提供了更廣泛的操作靈活性。
相比之下,Anthropic 於7 月與國防部簽署了自己的 2 億美元協議,並成為首家將其模型直接嵌入機密網路任務工作流程的 AI 實驗室。此外,其工具被整合到敏感的國防行動中,使該公司成為美國國家安全 AI 建設的核心。
與五角大廈官員的談判在最近幾週變得越來越緊張。一位熟悉談判的人士表示,摩擦「可以追溯到幾個月前」,遠早於Claude 被用於與委內瑞拉總統尼古拉斯·馬杜洛扣押相關的美國行動公開之前。
衝突的核心在於軍事當局能在多大程度上推動強大的 AI 模型朝向監控和自主化發展。Anthropic 尋求具有約束力的保證,確保其技術不會被用於完全自主武器或對美國人進行大規模國內監控,而國防部則希望避免此類限制。
也就是說,這不是一場狹隘的商業分歧,而是一場備受矚目的 AI 安全保障爭議,對未來戰場自動化有直接影響。五角大廈堅持要求最大的法律自由度,而 Anthropic 則認為目前的系統還不能被信任來大規模處理生死攸關的決策。
在一份詳細聲明中,執行長 Dario Amodei 警告說,在「一小部分情況下」,人工智慧可能「削弱而非捍衛民主價值觀」。他強調,某些應用「完全超出了當今技術能夠安全可靠完成的範圍」,突顯了在複雜軍事行動中誤用的風險。
在擴展監控方面的擔憂時,Amodei 認為,強大的系統現在使「將這些分散的、單獨看來無害的資料自動組裝成任何人生活的全面圖景,並且可以大規模進行」成為可能。此外,他警告說,如果這種能力向內使用,可能會從根本上重塑公民與國家之間的關係。
Amodei 重申,Anthropic 支持將 AI 用於合法的外國情報收集。然而,他補充說,「將這些系統用於大規模國內監控與民主價值觀不相容」,在海外情報和對美國人的內部監控之間劃出了一條堅定的道德界線。
這場權力鬥爭在週二 Amodei 與國防部長 Pete Hegseth 在五角大廈的會議期間加劇。Hegseth 威脅要將 Anthropic 標記為「供應鏈風險」,或援引國防生產法來強制其遵守。在週三晚上,國防部提出了所謂的「最後且最終提議」,要求該公司在週五美東時間下午 5:01 之前作出回應。
Anthropic 女發言人承認週三收到了修訂後的合約條款,但表示這「幾乎沒有任何進展」。據她說,被框定為妥協的新措辭與法律措辭配對使用,這實際上會允許關鍵保障措施「隨意被忽視」,削弱了所述的保護。
針對日益增加的壓力,Amodei 說:「國防部已表示,他們只會與同意『任何合法用途』並在上述情況下移除保障措施的 AI 公司簽約。」他補充說,官員們威脅要將 Anthropic 從其系統中剔除,並在該公司拒絕時將其指定為「供應鏈風險」;然而,他堅稱,「我們不能憑良心同意他們的要求。」
對五角大廈而言,問題的框架有所不同。首席發言人 Sean Parnell 週四表示,國防部「沒有興趣」使用 Anthropic 的系統來製造完全自主武器或對美國人進行大規模監控,並指出此類做法是非法的。相反,他堅持認為,該部門只是希望公司允許將其技術用於「所有合法目的」,並將此描述為「簡單、常識性的要求」。
爭議也在高層轉變為人身攻擊。週四晚上,美國國防部副部長 Emil Michael 在 X 上攻擊 Amodei,聲稱這位高管「最想做的就是試圖親自控制美國軍隊」。Michael 更進一步寫道:「Dario Amodei 是個騙子並且有上帝情結,這真是遺憾。」
然而,Anthropic 獲得了科技界部分人士的大力支持。在一封公開信中,來自 Google 和 OpenAI 的超過 200 名員工公開支持該公司的立場。此外,一位前國防部官員告訴 BBC,Hegseth 使用「供應鏈風險」標籤的理由顯得「極其薄弱」,引發了對五角大廈案件穩健性的質疑。
這場對抗也成為更廣泛的 AI 倫理軍事政策辯論中的試金石。AI 研究人員和公民自由倡導者正密切關注,將此案視為對國防機構能在多大程度上推動私人實驗室放鬆先進系統內建限制的早期測試。
儘管言論不斷升級,Amodei 強調他「深信使用 AI 捍衛美國的存在重要性」。他將這個問題定義為負責任部署的問題,而不是反對國防,並認為美國 AI 能力的長期可信度取決於維護民主規範。
Anthropic 的一位代表表示,該組織仍然「準備繼續談判,並致力於為國防部和美國戰士維持運營連續性」。然而,隨著五角大廈截止日期的倒數計時以及供應鏈指定的威脅仍在檯面上,雙方都面臨在不破壞關鍵創新的情況下解決僵局的壓力。
最終,Anthropic 與五角大廈在保障措施、監控和自主權方面的衝突已成為軍事 AI 治理中的一個決定性早期案例。其結果可能會塑造未來 Anthropic AI 模型和競爭系統如何在美國國防行動中被簽約、限制和部署。


