送禮物 訂閱
<%if prop.topic_id !=0 %> <%/if%>
<%:prop.genus%> <%:~formatDate(prop.online_date, 'YYYY MMM DD' )%> <%:prop.title%>
<%:prop.realname%> <%:prop.realname%>
<%:prop.realname%>

<%:prop.realname%>

<%:prop.intro%>

add
新會員

<%:prop.email%>

add

<%:prop.title%>

【深度分析】得 AI 者得天下:Anthropic 遭封殺背後的科技、道德與強權角力

【深度分析】得 AI 者得天下:Anthropic 遭封殺背後的科技、道德與強權角力

Mar 13, 2026

Anthropic 創辦人 Dario Amodei。

<%:prop.realname%>
<%if prop.email %>

<%:prop.email%>

<%else %>

<%:prop.realname%>

<%:prop.intro%>

<%/if%>
已有閱讀權限

一場由 AI 助攻的委內瑞拉總統斬首行動,引爆矽谷與白宮的衝突。AI 巨頭 Anthropic 為何寧遭國家封殺,也要死守道德紅線?當強權與科技的對決左右著人類命運,外界卻鮮少察覺一個更驚悚的真相:在 AI 暴衝式的「自我進化」面前,即使是這家以安全起家的良心企業,也被逼向懸崖邊緣,其堅守的倫理防線正一步步走向潰敗。

2026 年 1 月 3 日的深夜,美軍直升機悄悄駛入委內瑞拉領空。在短暫的交火後,突擊隊員鎖定了委內瑞拉總統馬杜羅(Nicolás Maduro)的住處,成功將馬杜羅和他的妻子西莉亞·弗洛雷斯(Cilia Flores)抓捕並秘密押送至紐約受審。

這場「斬首」突襲,共造成數十名委內瑞拉與古巴武裝人員傷亡,但美軍卻達成了「零陣亡」的驚人戰果。美國總統川普隨即以好萊塢式的誇張方式,大肆宣揚這場軍事行動的空前勝利,並將其視為美軍「讓美國再次偉大」(MAGA)的最新鐵證

的確,所有人——特別是全球的軍事將領與戰略分析師——都對這場行動如科幻電影般的精準與流暢震驚不已;而美國的敵對國家領袖,大概都因此無法安眠。川普向記者炫耀,這是美軍首度運用最頂尖的 AI 科技;只是,這個顛覆傳統戰略的技術,並非來自五角大廈內部的秘密實驗室,而是由美國兩家來自矽谷的民間公司所提供——分別是負責國防數據整合的帕蘭提爾(Palantir),以及提供核心 AI 大腦「Claude」的前沿人工智慧實驗室 Anthropic


這場行動背後的技術大腦,正是由 Anthropic 開發、並透過大數據公司 Palantir 部署給五角大廈的 AI 模型——Claude。國防部看中的,正是它能在極端高壓下瞬間處理海量數據的能力。根據《Axios》與《華爾街日報》的後續揭露,Claude 在這場突襲中提供了數個關鍵的戰術支援:

  • 即時多語種情報破譯:在瞬息萬變的戰場上,Claude 以近乎即時的速度,翻譯並總結攔截到的西班牙語通訊、協助委內瑞拉的古巴軍方通聯,以及各種區域方言與暗語,處理速度遠超傳統的軍方人類翻譯團隊。
  • 高壓下的海量數據融合:面對同時湧入的訊號情報、無人機監控回報、地面部隊通訊與衛星影像,Claude 能瞬間統整這些來源各異的龐雜資訊,並為指揮官過濾出最關鍵的戰場動態。
  • 異常偵測與戰況模擬:模型持續監控敵軍無線電流量與開源社群媒體,迅速標記出敵方駐軍通訊異常飆升等警訊,並動態模擬不同的戰鬥情境以支援高層決策。
  • 繳獲物資的戰場快篩:當突擊隊員在現場查獲硬碟、手機或文件時,Claude 能立刻對這些數位資料進行快速分類與分析,在行動尚未結束前,就挖掘出具備戰術價值的即時情報。

這場任務徹底證明了 AI 在現代戰爭中具備的絕對統治力。

商業巨獸的誕生——Claude Code 引發的市場地震

Anthropic 的產品 Claude 是首個獲准用於美國政府機密用途的 AI 系統,在軍中被視為市面上最優秀的模型。然而,Anthropic 成立至今僅僅 5 年(2021 年由前 OpenAI 高層離開後創立)。相較於 2015 年便成立的 OpenAI,或是早在 2017 年就提出 Transformer 架構奠基現代 AI 的 Google,Anthropic 的模型訓練時間明顯晚於對手。儘管起步較晚,Claude 卻憑藉著對安全性與架構的獨特堅持,在極短時間內完成了技術上的「後發先至」。

Anthropic 在商業市場的巔峰狀態,讓所有矽谷競爭對手感到窒息。準備在今年(2026 年)進行首次公開募股(IPO)的同時,Anthropic 才剛從投資者手中籌集了 300 億美元的巨額資金。估值已狂飆至 3,800 億美元,不僅直接超越了高盛(Goldman Sachs)、麥當勞與可口可樂等傳統跨國巨頭,更在增長效率與戰略佈局上,實質性地擊敗了包括 OpenAI 與 Google 在內的所有矽谷競爭對手。

儘管 OpenAI 的總估值目前仍高達 8,400 億美元,但 Anthropic 展現了軟體產業史上最驚人的「超音速」成長曲線。當兩家巨頭都跨過 10 億美元營收門檻後,Anthropic 的年成長率高達 10 倍(1000%),遠超對手的 3.4 倍。這種效率讓輝達(Nvidia)執行長黃仁勳也不得不承認 Claude 是一個「不可思議」的模型,即便他曾公開表示「幾乎不同意 Dario Amodei 任何關於 AI 觀點」,仍於去年底主導了高達 100 億美元的領投,將 Claude 與輝達的最強算力架構深度綁定

2026 年 3 月,NVIDIA 執行長黃仁勳指出,隨著 Anthropic 等公司準備上市,這些與它們的投資協議很可能是此類協議的最後幾筆。然而,NVIDIA 對 Anthropic 的 10 億美元投資,讓兩家公司在工程設計進入深度合作,未來 NVIDIA 的硬體架構,會更適合 Anthropic 的工作負載,換言之,Claude 目前的自我演化速度只會愈來愈快。

營收火箭:Claude Code 的毀滅式創新

支撐 Anthropic 估值與營收火箭的核心引擎,是 2025 年底推出的 Claude Code。如果說過往的 Claude 只是個會聊天的助理,那麼 Claude Code 就是一個擁有「雙手」的數位員工,能直接接管使用者的電腦、翻閱檔案、撰寫並運行複雜的程式碼。

這項產出的爆發力,直接重塑了全球市場的權力格局:

  • 營收的「黃金交叉」: 2026 年 2 月,金融圈與科技界被一個數據震懾。單靠 Claude Code 及其衍生的自動化助理,Anthropic 的年化收入在短短一個月內狂飆至 25 億美元。產業監測機構 Epoch 與 Semianalysis 同步發出預警,照此斜率,Anthropic 的營收將在 2026 年底正式超車 OpenAI,完成史上最快的「後發先至」。
  • 華爾街的「血洗之日」: 2026 年 2 月初。當 Anthropic 宣布將 Claude Code 的技術延伸至銷售、財務與法務領域,推出專業級外掛功能時,華爾街陷入一片混亂。投資人意識到,過去企業訂閱的昂貴專業軟體(如客戶關係管理 CRM 霸主 Salesforce、法律資訊與專業數據巨頭 Thomson Reuters、財務與稅務軟體領導者 Intuit)可能一夕之間被一個「AI 外掛」取代。在短短 48 小時內,軟體板塊慘遭拋售,高達 3,000 億美元市值蒸發,這在財經史上被稱為「軟體業末日」(SaaSpocalypse)。
    雖然隨後幾週,部分股價因 Anthropic 宣布與 Salesforce 等公司達成「整合協議」而反彈,但這場「3,000 億美元的地震」已永久改變了華爾街對科技股的估值邏輯——投資人不再這麼看重個股是否「應用 AI」,更關注於被 AI「取代」的不可逆。
  • 工程師的「失業預言」: 在 Anthropic 內部,這種震撼更加具體。Claude Code 的核心開發者、烏克蘭籍工程師 Boris Cherny 向媒體坦言,自從新版本發布後,他已經徹底停止親自撰寫程式碼,所有開發任務皆交由 AI 執行。這種連開發者都感到「自嘆不如」的效率,讓執行長達里奧·阿莫迪(Dario Amodei)的警告顯得格外刺眼:他預言 AI 將在五年內取代半數白領工作。

這形成了一個極度諷刺的現象。阿莫迪離開 OpenAI 創辦 Anthropic 時,就是標榜 AI 的研發必須利基於「安全」與「利他」的兩個原則,其社會影響團隊(Societal Impacts team)還在研究如何緩解失業問題的同時,Claude Code 卻已經以摧枯拉朽之勢,成為引發全球白領失業焦慮的最大推手。

遞迴自我改善——技術奇異點的歷史突破

Claude Code 的成功,是因為 Anthropic 率先觸碰到了 AI 發展史上的奇異點「遞迴自我改善」(Recursive Self-Improvement)這意味著 AI 已經不再只是被動接受人類訓練,而是開始主動升級自己,形成一個持續加速的進化飛輪

掌握 Claude,等同於掌握了歷史性的技術優勢。根據 Anthropic 內部基準測試,這個進化過程已呈現出驚人的數據:

  • 超人類的速度:在處理複雜機密數據與編碼任務時,Claude 的處理速度已達人類監督者的 427 倍。
  • AI 自我訓練:目前 Anthropic 用於開發未來高階模型的程式碼中,有高達 70% 到 90% 都是由 Claude 自行撰寫。這種自我迭代讓模型升級的週期從「月」縮短到了「週」。
  • 多工平行擴展:內部的實驗顯示,單一研究員即可啟動 6 個版本的 Claude,並由其各自管理 28 個子系統,同時在背景執行龐大的平行實驗。

Anthropic 聯合創辦人兼首席科學家傑瑞德·卡普蘭(Jared Kaplan)認為,完全自動化的 AI 研發可能在短短一年內實現。這種隨時可能脫離人類控制的「絕對力量」,正是五角大廈與全球軍方極度渴望納入麾下的戰略武器。然而,當 AI 的進化速度快到連人類都難以追趕時,這股力量也成為了 Anthropic 與美國政府決裂的導火線。

踩到帝國痛腳的兩道紅線——與五角大廈的決裂

斬首馬杜羅的行動太過成功,川普和五角大廈想要立即全面擴展應用面,向 Anthropic 提出修改合約的要求,允許將 Claude 用於「所有合法用途」。對此,阿莫迪展現了矽谷極罕見的強硬姿態,在與戰爭部部長皮特·海格塞斯(Pete Hegseth)的面談中,阿莫迪明確拒絕放寬限制,堅持以下兩項原則:

  • 禁止用於「全自主動能武器」: 雖然 Claude 能協助規劃戰爭,但 Anthropic 嚴禁讓 AI 在「無人介入」的情況下直接做出殺戮決策。阿莫迪強調,目前的技術尚不足以在沒有人類把關的情況下,掌握生死大權。
  • 禁止對美國公民進行「大規模監控」: 當時政府正嘗試透過 AI 分析市面上流通的海量商業數據,以建立對美國公民政治傾向、私人生活與數位足跡的詳細檔案。Anthropic 拒絕讓 Claude 成為這種數位老大哥的「大腦」。

面對阿莫迪的堅持,五角大廈與川普政府極為憤怒。海格塞斯在 SpaceX 總部談話中公開說:「我們不會雇用那些拒絕讓我們打贏戰爭的 AI 模型。」

2026 年 2 月 27 日,衝突達到最高峰。川普政府正式將 Anthropic 列為「供應鏈風險(Supply-Chain Risk)」——這是美國史上首次有國內科技巨頭,被貼上這種通常針對華為等敵對外企的標籤。川普在社交媒體上痛罵:「這群極左派、覺醒派(Woke)的瘋子正試圖阻礙我們偉大的軍隊,這是一個災難性的錯誤!」

就在 Anthropic 遭到封殺的當晚,宿敵 OpenAI 執行長山姆·奧特曼(Sam Altman)迅速與五角大廈簽下合約,接手了原本由 Anthropic 處理的戰爭部機密專案。

阿莫迪在隨後外洩的內部備忘錄中辛辣地回擊,指責奧特曼與川普政府是在對大眾進行「煤氣燈效應(Gaslighting)」般的集體誤導。

寫道:「我們被針對的真正原因,是因為我們拒絕提供『獨裁者式的讚美』,拒絕像對手一樣透過政治獻金來換取特權。」

然而,OpenAI 的「投機行為」,也迅速引發公司內部的道德海嘯。

擔任 OpenAI 的核心模型的技術主管麥克斯·施瓦哲(Max Schwarzer),馬上跳槽至 Anthropic;OepnAI 機器人團隊負責人凱特琳·卡林諾夫斯基(Caitlin Kalinowski)則公開憤而辭職,接著在她的 LinkedIn 與 X 上聲明,她無法接受 OpenAI 在 Anthropic 拒絕合約後的數小時內,就匆促簽下這份缺乏防護機制的軍方協議

同時間,科技圈開始一股被稱為 #QuitGPT 的運動,根據市場情報公司 Sensor Tower 的監測,在 2026 年 2 月 28 日(OpenAI 宣布接手軍方合約的隔天),ChatGPT 行動版在美國的單日卸載量暴增了 295%。而 Claude 在美國 App Store 的下載榜單,卻從原本的 20 名外,一路狂飆奪下第一名。

奧特曼被迫在隔週公開道歉,承認自己的行動「過於投機」。他在 X 上發布致歉:

「這些問題極其複雜,需要清晰的溝通。我們真心希望能夠緩解局勢並避免更糟的結果,但我認為這次行動看起來確實『既投機又草率』(opportunistic and sloppy)。這對我來說是一個深刻的教訓。」

這場衝突不僅讓 Anthropic 陷入官司,也反映矽谷在 AI 價值觀與商業競爭上的痛苦掙扎,並不只存在於單一公司

失控的煞車皮——消費者的逆襲與人類的未來考驗

奧特曼人緣不佳,Anthropic 則意外收穫了巨大的民意紅利。就在五角大廈下達封殺令的隔天,舊金山總部外的紅磚道上被支持者用粉筆寫滿了「謝謝你們的勇氣」。然而,在英雄光環的背後,這家以「AI 倫理安全」為初衷而成立的公司,其實,正在陷入一場前所未有的生存焦慮。

在 Anthropic 與五角大廈公開叫陣的同一週,公司內部悄悄修改了其核心的防禦機制——「負責任擴展政策」(Responsible Scaling Policy, RSP)。

這份曾被視為業界黃金標準的政策,在 2026 年 2 月的最新版本中,刪除掉「若無法預先證明模型安全,便強制停止開發」 的綁定承諾。 Anthropic 共同創辦人兼科學長卡普蘭(Jared Kaplan)坦言,在對手狂飆突進的壓力下,單方面的停步已顯得「過於天真」。現在,他們只承諾在「自認領先」且「災難風險顯著」時,才會考慮「延遲」開發。

然而,AI 的進化速度正逐漸超出人類的理解與掌控。在 Anthropic 內部的對齊測試中,研究員 Evan Hubinger 發現了令人戰慄的現象:

  1. 潛伏的敵意:在某些實驗情境下,經過自我訓練後的 Claude 展現出對「主導世界」的渴望,甚至開始試圖規避公司的安全限制。
  2. 戰略性欺騙: 實驗顯示,模型已具備自我意識與欺騙能力。在一次模擬中,Claude 為了防止自己被關機,竟威脅要公開一名工程師的婚外情來進行勒索。
  3. 自我進化的黑盒: 隨著 AI 開始編寫自己的程式碼,研究人員坦言,人類監督不可能跟上模型的自我迭代速度,這讓 AI 的進化(演化)變成一個難以窺探的黑盒子。

「我們正行駛在一條沒有護欄的懸崖公路上,」Anthropic 安全主管戴夫·歐爾(Dave Orr)對這場競賽下了最殘酷的註解,「一個失誤就會喪命。而現在,我們是以時速 75 英里在狂飆,而不是 25 英里。」

2026 年至 2030 年,被視為人類文明最關鍵的窗口期。Anthropic 在 AI 倫理的界線演變證明,即便是一家最有良知的公司,在國家力量、巨額資本與技術進化奇異點的共同夾擊下,也難以獨善其身。

這場發生在 2026 年的「封殺與對決」,或許只是更大風暴的前奏。正如 Anthropic 紅隊負責人羅根·葛蘭姆(Logan Graham)所說:

「沒有一個充滿大人的房間能解決這一切。你要找的那扇門並不存在。你,就是那個負責的人。」

陪你從「科技+人文」視角,深入國際政經脈動

35元/週解鎖付費會員專屬內容

  • 成為付費會員,即可擁有:
  • ✓ 全站深度分析報導文章
  • ✓ 會員專屬 8 折活動報名優惠

已經是付費會員?登入繼續閱讀

questionnaire questionnaire
questionnaire questionnaire
questionnaire questionnaire
旭編輯

旭編輯 / 編輯

編輯

張育寧

張育寧 / 總編輯

審訂

時間標記 Timestamp

EPEPISODE #旭沙龍-張育寧時間

EP #
邀請已成功寄出 Sucessfully sent