Anthropic 擁有一份價值 2 億美元的五角大廈合約、機密網路訪問權限,以及美國軍方的完全信任。
然後他們提出了一個問題。
2024 年 11 月,Anthropic 成為首家在五角大廈機密網路內部署的前沿 AI 公司。這項合作是與 Palantir 建立的。到 2025 年 7 月,合約金額已增加到 2 億美元——超過大多數國防新創公司十年內所獲得的金額。
Anthropic 的 AI 模型 Claude 無處不在。情報分析。網路作戰。作戰規劃。建模與模擬。國防部稱其為「任務關鍵」。
然後來到了 2026 年 1 月。
Claude 被用於委內瑞拉的一次機密軍事行動——逮捕尼古拉斯·馬杜羅。
Anthropic 向其合作夥伴 Palantir 提出了一個簡單的問題:我們的技術究竟是如何被使用的?
在大多數行業中,這被稱為盡職調查。五角大廈稱之為不服從。
這家詢問「我們的 AI 是如何被使用的?」的公司即將被貼上國家安全威脅的標籤。
改變一切的七天
以下是時間軸。進展很快。這就是重點。
2 月 24 日:國防部長 Pete Hegseth 召見 Anthropic 執行長 Dario Amodei 前往五角大廈。要求直截了當:移除 Claude 的所有防護措施。大規模國內監控。全自主武器。全部。
截止日期:2 月 27 日美東時間下午 5:01。
2 月 26 日:Amodei 發布了他的答覆。只有兩個字母。
不。
他的公開聲明列出了兩條他不會跨越的紅線:
- 拒絕大規模國內監控。AI 將你的位置數據、瀏覽歷史和財務記錄自動大規模組合成個人檔案。Amodei 的觀點:現行法律允許政府在沒有搜查令的情況下購買這些數據。AI 使將其武器化成為可能。「法律尚未跟上 AI 快速增長的能力。」
- 拒絕全自主武器。意思是:不將人類從殺人決策中移除。不是因為自主武器永遠不可行——而是因為今天的 AI 還不夠可靠。「前沿 AI 系統根本不夠可靠,無法驅動全自主武器。」
他提議直接與五角大廈合作進行研發以提高可靠性。五角大廈拒絕了這個提議。
2 月 26 日(同一天):副部長 Emil Michael 稱 Amodei 為「有上帝情結的騙子」。公開地。在社群媒體上。基調已定。
2 月 27 日下午 5:01:截止日期過去。川普總統下令所有聯邦機構停止使用 Anthropic。Hegseth 根據 2018 年《聯邦採購供應鏈安全法》將 Anthropic 指定為「供應鏈風險」。
這一指定此前僅保留給華為和卡巴斯基——與敵對政府有記錄在案聯繫的外國公司。
它從未被應用於美國公司。直到現在。
2 月 27 日,數小時後:OpenAI 與同一五角大廈簽署了機密部署協議。
Sam Altman 在晚上 8:56 發推文:
https://x.com/sama/status/2027578652477821175?s=20OpenAI 後來聲稱其協議「比以往任何機密 AI 部署協議(包括 Anthropic 的)都有更多防護措施」。
問題是。Anthropic 被列入黑名單正是因為其防護措施。現在防護措施成了賣點。
週末:反彈立即出現。
- 根據 Sensor Tower 的數據,ChatGPT 卸載量在一天內激增了 295%。前 30 天的正常日均率?9%。
- Claude 在七個國家的 Apple App Store 中排名第一:美國、比利時、加拿大、德國、盧森堡、挪威和瑞士。下載量週五攀升了 37%,週六則攀升了 51%。這是該應用首次達到榜首。
- 超過 300 名 Google 員工和 60 名 OpenAI 員工簽署了一封支持 Anthropic 的公開信。
- #QuitGPT 在社群媒體上成為趨勢。演員 Mark Ruffalo 和紐約大學教授 Scott Galloway 擴大了這場運動。
用戶們……並不高興。
3 月 2 日:Altman 再次發文。這次是一份在 X 上公開分享的長篇內部備忘錄:
https://x.com/sama/status/2028640354912923739?s=20修正案增加了三件事:
- 明確禁止對美國公民進行國內監控
- 要求 NSA 需要單獨的合約修改才能訪問系統
- 限制使用商業購買的個人數據——地理位置、瀏覽歷史、財務記錄
最後一項值得停下來思考。它是週一添加的。這意味著週五的協議並未禁止它。
3 月 3 日:同一天發生了兩件事。
首先:在 a16z 美國活力峰會上,Palantir 執行長 Alex Karp 警告說,拒絕與軍方合作的 AI 公司將面臨國有化。他在台上使用了侮辱性言語。該片段獲得了 1,100 萬次觀看。
國防科技公司 Anduril 的創始人 Palmer Luckey 告訴同一觀眾,「看似無害的術語,如『政府不能使用你的技術針對平民』實際上是道德雷區」。
副總統 JD Vance 當天早些時候發表了主題演講。政府的立場很明確。
其次:CNBC 報導稱,在與員工的全體會議上,Altman 告訴 OpenAI 員工,公司「無法選擇軍方如何使用其技術」。
X 用戶在 Altman 早前的帖文中添加了社群筆記:
同一天。公開帖文:我們有防護措施和原則。內部會議:我們無法選擇。
與此同時,CBS 新聞報導稱,儘管被指定為供應鏈風險,Claude 仍部署在積極的軍事行動中——包括針對伊朗的行動。列入黑名單顯然沒有起作用。該技術已深深嵌入機密系統中,無法移除。
95% 的問題
在戰爭遊戲模擬中,AI 模型在 95% 的時間內選擇發射戰術核武器。
讓這個數字沉澱一下。
GPT-5.2、Claude Sonnet 4 和 Gemini 3 Flash 經歷了軍事衝突模擬。它們在 95% 的場景中使用了戰術核武器。至少有一個模型在 21 場遊戲中的 20 場發射了核武器。
這就是五角大廈想要自主部署的技術。
失敗模式有據可查且一致:
- 升級偏見。模型不只是隨機失敗。它們在一個特定方向上失敗——向升級方向。布魯金斯學會的研究發現,AI 軍事錯誤是系統性的,而非隨機的。模式總是相同的:更多武力,更快。
- 幻覺。大型語言模型以高置信度生成虛假信息。在一次與伊朗打擊相關的測試中,一個 AI 將捏造的情報輸入決策鏈。在時間壓力下,人類操作員無法將其與真實情報區分開來。
- 對抗性漏洞。這些系統可以通過精心設計的輸入來操縱,以繞過其限制。攻擊者不需要是外部的。漏洞存在於模型本身。
這些不是邊緣案例。這就是技術今天所做的。
這樣想。我們已經看到當簡單自主系統在軍事環境中失敗時會發生什麼。
2003 年的愛國者導彈系統殺死了盟軍士兵。它將一架友軍英國飛機誤認為敵方導彈。該系統是基於規則的,有明確的參數。它仍然出錯了。
1988 年的文森斯號驅逐艦擊落了伊朗航空 655 號航班——一架商業客機。290 名平民遇難。該艦的神盾戰鬥系統根據雷達數據誤認了飛機。船員有幾秒鐘的時間做決定。他們相信了系統。
那些是具有明確參數的基於規則的系統。大型語言模型複雜程度要高出幾個數量級。更不透明。更不可預測。
而它們被要求做出更大的決策。
監督問題。一旦 AI 部署在機密網路內部,外部問責就變成了專家所說的「幾乎不可能」。限制在作戰壓力下受到侵蝕。OpenAI 承諾的現場部署工程師可以觀察一些互動,當然。但機密作戰在設計上限制了信息流動。
用白話說:保守秘密的同一堵牆也將監督擋在外面。
五角大廈有其道理。它值得公平聽證。
部分自主武器——比如烏克蘭使用的無人機——拯救生命。它們使較小的部隊能夠抵禦較大的部隊。中國和俄羅斯在部署自己的系統之前不會等待完美的可靠性。
拒絕在國防中使用 AI 會造成能力差距。對手會利用它。
Dario Amodei 直接承認了這一點:
他的反對不是針對目的地。而是針對時間表。
他提議在實現目標所需的研發上進行合作。五角大廈說不。
「AI 可以總結情報報告」——它確實擅長這一點——與「AI 可以決定誰生誰死」之間存在差距。合約無法彌合這一差距。修正案無法彌合它。工程可以。
而工程尚未完成。
如何將一家美國公司列入黑名單
供應鏈風險。聽起來很官僚。實際上是一個終止開關。
根據 2018 年《聯邦採購供應鏈安全法》——FASCSA——「供應鏈風險」指定意味著沒有政府承包商可以與你做生意。不僅是五角大廈。任何想要聯邦合約的人。政府生態系統中的任何供應商、分包商或合作夥伴。
用白話說:你對整個聯邦供應鏈變得有放射性。
該法律是為外國威脅而建立的。華為的 5G 基礎設施。卡巴斯基的防毒軟體。與敵對政府有記錄在案聯繫的公司。
在 Anthropic 之前名單上的每家公司都有一個共同點:它們來自被視為美國對手的國家。
Anthropic 總部位於舊金山。
五角大廈還威脅要使用《國防生產法》——一項冷戰時期的法律,旨在徵用工廠用於戰時生產。鋼鐵廠。彈藥廠。戰爭的實體基礎設施。
五角大廈威脅要使用它來強迫一家軟體公司從 AI 聊天機器人中移除安全功能。
法律專家稱這一應用「值得質疑」。該法律是為實體生產而建立的,而非軟體限制。使用它來強迫公司使其 AI更不安全,至少會是一個新穎的法律理論。
Amodei 在他的聲明中指出了邏輯問題:
你不能既稱一項技術是供應鏈的威脅,又援引緊急權力來沒收它,因為你沒有它就無法運作。選一個。
實際結果很能說明問題。CBS 新聞報導稱,Claude 仍在積極的軍事用途中。儘管被列入黑名單。這一指定是懲罰性的,而非實際的——技術已深深嵌入,無法剝離。
這引發了一個華盛頓似乎沒人急於回答的問題:如果五角大廈無法對其正式列入黑名單的技術執行移除令,它究竟如何執行使用防護措施?
五角大廈的立場很直接。私營公司不制定軍事政策。AI 公司是供應商。軍方決定如何使用其工具。
從這個角度來看,Anthropic 是一個拒絕交付所訂購內容的供應商。客戶找到了另一個供應商。
這種框架在內部是一致的。這也是你用於辦公用品的框架。而不是用於在 95% 的模擬中選擇核升級的技術。
防護措施是真的嗎?
週五,OpenAI 的協議有防護措施。到週一,它需要更多防護措施。
這告訴你一些關於週五防護措施的信息。
Altman 在週一修正案中同意的語言值得仔細閱讀:
起關鍵作用的詞:故意地。
當 AI 處理一個偶然包含美國人的數據集時會發生什麼?如果監控是更廣泛情報行動的副產品,而不是既定目標呢?誰在一個監督機制在設計上受限的機密網路內定義意圖?
商業購買數據條款更能說明問題。週一修正案明確禁止使用購買的個人數據——位置追蹤、瀏覽歷史、財務記錄——來監控美國人。
該條款是週一添加的。週五的協議不包括它。
整個週末,OpenAI 與五角大廈的協議在技術上允許通過商業購買的關於美國公民的數據進行大規模監控。
Altman 承認了這一點:
NSA 的排除也值得研究。像 NSA 這樣的情報機構未經合約的「後續修改」就不能使用 OpenAI 的系統。這聽起來像是一個禁令。實際上是一個流程。授予訪問權限的機制已內置在合約結構中。
那不是一堵牆。那是一扇用不同鑰匙的門。
更深層的問題是全體會議的矛盾。在 Altman 在 X 上發布關於原則和防護措施的同一天,他在內部告訴員工 OpenAI「無法選擇軍方如何使用其技術」。
如果構建 AI 的公司無法選擇如何使用它,那麼防護措施就是一份新聞稿。而不是政策。
在機密環境中,監控 AI 與監控雲端服務有根本不同。保護軍事秘密的安全機制也阻止了對 AI 行為的獨立監督。
現場部署的工程師可以觀察一些互動。但「一些互動」與「合約涵蓋的每一次互動」是非常不同的事情。
接下來會發生什麼
市場已經表態。合作獲得合約。抵抗被列入黑名單。
公眾也已經表態。他們正在卸載。
激勵結構很明確。OpenAI 合作並獲得了協議。Anthropic 抵抗並被指定為供應鏈風險——政府用於與外國對手有聯繫的公司的同一標籤。
在 a16z 峰會上,Karp 預測每家 AI 公司將在三年內與軍方合作。根據激勵措施,這不是預測。這是描述。
但反彈數字講述了一個不同的故事。
295% 的卸載激增。Claude 在七個國家排名第一。超過 500 名科技員工與雇主決裂。法國世界報從巴黎發表社論批評政府越權。民調顯示 84% 的英國公民擔心政府-企業 AI 合作夥伴關係。
構建這些系統的工程師和使用它們的人看到了五角大廈顯然沒有看到的東西:支持國防和部署不可靠的技術進行自主殺戮不是同一件事。
沒有合約修正案能彌合這一差距。沒有防護措施能彌合它。沒有現場部署的工程師能彌合它。
AI 模型在 95% 的戰爭遊戲模擬中選擇了核升級。說「技術還沒準備好」的公司被列入黑名單。說「是」的公司在 72 小時內承認它草率了。無論哪家公司想要什麼,該技術仍部署在積極行動中。
Amodei 提議進行研發以使自主 AI 武器安全可靠。他提議與五角大廈合作實現這一目標。提議被拒絕了。
Anthropic 擁有一份價值 2 億美元的合約和五角大廈的信任。然後他們詢問他們的技術是如何被使用的。
答案是一個截止日期、一次列入黑名單,以及一個以前保留給美國對手的標籤。
模擬持續運行。在其中 95% 的情況下,有人按下了按鈕。
來源: https://cryptobriefing.com/ai-chose-nukes-in-95-of-war-games-the-pentagon-wants-to-deploy-it-anyway/


