2026 年 2 月 28 日,川普對伊朗進行斬首式轟炸的同時,美國戰爭部與 AI 科技巨頭 Anthropic 的 AI 合作談判也破局。爭議核心是 Anthropic 堅持要求再提供美國政府國防相關產品的合約中明訂:禁止將 Claude 用於境內大規模監控及自主武器系統,但是戰爭部不願接受這些限制條款。
主導談判的是戰爭部首席技術長 Emil Michael,這位前 Uber 高層在期限屆至後,未能獲得 Anthropic 最終確認。國防部長 Pete Hegseth 隨即宣告談判終止,並在社群媒體上寫下:「美國的戰爭絕不會被大科技公司的意識形態挾持。」同時將 Anthropic 列為「供應鏈風險」——過去這個標籤在五角大廈的採購法中,通常只針對外國敵對勢力,這是首次套用在美國本土科技公司身上。Anthropic 隨後宣布將對此提起訴訟。五角大廈則威脅,要動用《國防生產法》強迫Anthropic為軍方提供沒有任何安全保障的 AI 模型。
與此同時,Emil Michael 也在平行推進與另一個 AI 巨頭、同時也是 Anthropic 主要競爭對手之一 OpenAI 的協商。OpenAI 迅速和戰爭部達成協議,宣布模型將部署至美軍機密網路,並聲稱協議設有禁止境內監控、禁止指揮自主武器等底線。
對此,Anthropic 執行長 Dario Amodei 罵上跳出來直接批評 OpenAI 的安全聲明是 「公然說謊(straight-up lies)」,認為對方的協議缺乏真正具約束力的保障。 OpenAI 則回應:「我們不知道 Anthropic 為何無法接受相同條款」,並補充表示,已向政府表達 Anthropic 不應被列為供應鏈風險。
這場爭議的核心問題只有一個:AI 公司能不能對政府的使用方式設下紅線? 目前兩家公司與政府的法律角力仍在持續。
AI科技的地緣政治角力
伊朗戰爭還在持續,但在科技的地緣政治鬥爭中,川普政府的「美國優先」政策,可能導致美國在 AI 科技發展上,做出一些犧牲倫理的決定。
OpenAI 與 Anthropic 的衝突就反映了這一點。根據《Axios》報導,OpenAI CEO Sam Altman表示,他將與 Anthropic 一樣,堅持不允許 AI 用於大規模監視或自主武器。然而奇怪的是,五角大廈並沒有對 OpenAI 祭出一樣的強硬態度。
對美國政府而言,如果其他領先企業如 Google 也起而效仿,將大大複雜化五角大樓替換 Anthropic Claude 模型的努力,更進一步來說,對川普將 AI 科技用於極大化美國武力加快高度智慧化的帶來阻力。這是美國頂尖 AI 領導企業,首次集體就政府如何使用他們的技術做出表態。
這種做法不僅影響美國自身的 AI 未來,也可能對全球 AI 發展產生深遠影響。正如《Programmable Mutter》的分析認為,一旦 AI 技術的發展被扭曲或受到不確定性的影響,將會對人類社會造成難以預測的後果,例如在目標選擇和公民監視方面出現問題。因此,這種做法可能導致 AI 技術未來發展的不確定性,不僅影響美國,也可能對全球產生深遠影響。
AI發展的倫理困境
Anthropic 堅持不允許其 AI 系統被用於大規模監控或自主武器,反映了 AI 發展面臨的重大倫理困境。根據報導,Anthropic 的 CEO Dario Amodei 在五角大廈發出被排除政府供應鏈的威脅後,激動表示,他們不會讓自家的 AI 技術被用於「任何不當用途」,包括大規模監控或自主武器系統。他表示,這是 Anthropic 在與五角大樓的角力中堅持的底線。
然而,五角大樓卻堅持要求「任何合法用途」。這意味著,即便 Anthropic 的 AI 系統有嚴格的安全保障,只要政府認為合法,也可能被強行用於不符合其原則的用途。國防部長 Pete Hegseth 告訴 Amodei,當政府購買波音飛機時,波音也無權決定如何使用。這種論調,忽視了 AI 發展所面臨的倫理困境。
事實上,AI 技術的發展不僅可能被用於戰爭目的,也可能造成人類社會的巨大犧牲。據報導,以色列軍方在加薩戰爭中,就部署了 AI 目標辨識系統 Lavender,由菁英情報單位 Unit 8200 開發。系統在戰爭初期將高達 37,000 名巴勒斯坦人標記為潛在打擊目標,六名以色列情報官員透露,士兵基本上把 AI 輸出結果「視同人類決策」來執行。其中最令人不安的細節是:為了消滅一名低階 Hamas 成員,軍方授權可接受最多 15 至 20 名平民的附帶傷亡;如果是高階指揮官,這個數字甚至超過 100 人。一名情報官員在接受《衛報》訪問時直白地說:「機器是冷血執行的。」
至少從以色利的經驗來看,太早將 AI 納入戰爭決策,已經有可見的三大系統性風險:
- 決策速度壓縮人類判斷空間
AI 將軍事目標的決策週期從數天壓縮至幾分鐘,甚至幾秒鐘,根本沒有留下讓人類進行法律審查的空間。這種速度優勢也帶來「自動化偏誤(automation bias)」——指揮官傾向信任機器判斷,而不去充分評估後果。 - 責任歸屬真空
國際人道法要求人類——而非機器——做出攻擊決定。但 AI 系統本身沒有法律人格,無法站上法庭受審,也無法承擔責任。這造成一個危險的真空:當 AI 造成平民傷亡,開發商、部署方、指揮官之間的責任界線模糊。 - 偏見與錯誤辨識風險
Lavender 系統號稱達到 90% 準確率,但這意味著每 10 個目標就有 1 個可能是誤判。更廣泛地說,AI 分類器使用的訓練資料若存在偏見,就可能系統性地將特定族裔、性別或宗教群體過度標記為威脅。人權觀察在 2025 年的報告中明確指出,自主武器對平民的風險已達到「侵害人權的程度」。

AI未來發展的不確定性
對急於掌握美國霸權絕對優勢的第二任川普政府來說,以色列打擊哈馬斯的明確效應,的確深具吸引力。然而,Anthropic 與 OpenAI 面對白宮壓力的衝突性決定也顯示,當 AI 在戰爭決策中能夠扮演的決策層級程度,是由美軍這樣的霸權國家來判斷時, AI 發展正處於劇烈的複雜性與不確定性的歷史時間點,導致 AI 技術未來發展,似乎難以避免走向扭曲。
如果目前前幾家 AI 巨頭無法就基本原則達成共識,恐怕很難在未來的地緣政治角力中保持團結。正如前川普政府 AI 顧問 Dean Ball 所言:
「這不會是最後一次我們看到國家干預前沿 AI,直到我們建立正式的干預結構,行業團結將很重要。我擔心現在這種可能性會降低。」
AI 技術的發展不僅關乎商業競爭,也涉及更廣泛的倫理和安全問題。Anthropic 和 OpenAI 的分歧反映了整個行業在平衡技術進步和社會責任方面的挑戰。如果行業內部無法就基本原則達成共識,恐怕很難在未來的地緣政治角力中保持團結,AI技術的發展也將面臨更多不確定性。
誰在Anthropic爭鬥中受損?
Anthropic 與美國政府的激烈衝突,可能會波及到其他科技領袖。例如特斯拉 CEO Elon Musk 和 Palantir 執行長 Alex Karp,他們都曾與政府有密切合作。根據消息人士透露,一旦Anthropic被政府列為「供應鏈風險」,這將嚴重影響其與其他企業的交易,可能導致 Musk 和 Karp 等人的利益也受到波及。
美國政府在 AI 科技發展上的極端選擇,可能導致 AI 技術未來發展的不確定性。這不僅影響美國自身,也可能對全球 AI 發展產生深遠影響。特斯拉、Palantir 和 Google 等其他 AI 科技巨頭怎麼看待這場爭端對他們帶來的影響,將決定,人類社會是否有能力在科技進步與倫理道德之間尋求平衡,避免 AI 技術淪為地緣政治角力的犧牲品。




