260312-五角大廈 vs Anthropic:這可能是一場價值戰爭

民主與監控的戰場,比你想像的更近。

2026 年 2 月底,美伊戰爭剛剛爆發的同一週。

美國國防部長 Pete Hegseth 下令:美國公司Anthropic 若不在週五下午 5 點 01 分前讓步,將被列為「供應鏈風險」——一個通常只貼在中國企業、俄羅斯企業身上的標籤。

Anthropic CEO Dario Amodei 沒有讓步。


目錄


一家公司,一個宣言

Amodei後來在 CBS 的訪問裡說了這樣一段話:

「我們是愛國的美國人。我們所做的一切,都是為了這個國家,為了支持美國的國家安全。不同意政府的決定,是世界上最美國的事情之一。我們是愛國者。」

這不是一家公司的商業決定。這是一條關於 AI 時代、公民自由與國家權力邊界的宣言。

有人認為它的重要性,不亞於正在中東爆發的那場戰爭。

不是誇張。是因為那場戰爭打完了,世界會繼續轉動。而這場衝突的結果,將決定 AI 時代裡,民主體制的內核到底還剩下什麼。

回到目錄


事件時間軸

這場衝突走得很快。

2021 年,Dario Amodei 和其他前 OpenAI 研究員因為對 AI 安全的憂慮,離開 OpenAI、創立 Anthropic。核心主張很清楚:AI 必須被謹慎建造,否則代價是人類文明本身。

幾年後,Anthropic 反而成為第一家把模型部署進美軍機密雲端的 AI 企業。他們在情報體系和軍事任務支援領域都有深入合作。Anthropic 不是反軍的公司——他們相信美國需要 AI 優勢來對抗威權體制,特別是中國。

問題出在 2026 年初。

五角大廈希望取得 Claude 在「所有合法用途」下的完整授權,包含兩件 Anthropic 明確拒絕的事情:大規模國內監控,以及完全自主武器(不需人類介入就能開火的系統)。

2 月 26 日,Anthropic 明確拒絕。

2 月 27 日,Hegseth 宣布禁令。幾小時後,川普在社群媒體上公開批評 Anthropic,要求所有政府機構立即停用 Claude。同一天,美軍對伊朗發動空襲。

OpenAI 的 Sam Altman 在當天晚些時候宣布,OpenAI 與五角大廈達成協議。

3 月 9 日,Anthropic 向加州聯邦法院提告,稱政府行動「前所未有且違法」,主張政府侵犯公司言論自由與正當程序權利。

3 月 10 日,微軟向法院提交文件,公開支持 Anthropic,要求發布臨時限制令阻止禁令生效。

回到目錄


Anthropic 到底在拒絕什麼

值得停下來想清楚這件事,因為很容易被政治噪音淹沒。

Anthropic 並不是在拒絕與軍方合作。他們已經在做,而且是所有 AI 企業裡做得最深的那個。Amodei 在 CBS 的訪問裡說得很直接:「我們對國防部所有用途都 OK,基本上是 98% 或 99% 的用途,除了我們擔憂的兩件事。」

第一件事,大規模國內監控。五角大廈的要求是允許「所有合法用途」。但 Amodei 解釋,問題正在於:有一類監控,技術上合法,是因為法律根本還沒跟上技術——從私人公司購買的零散個人資料,透過 AI 整合成對每個公民的完整行動檔案,這件事在 AI 之前從來沒有能力做到,所以法律根本沒有被設計來阻止它

「技術發展的速度,超前了法律。」

第二件事,完全自主武器——不需要任何人類介入就能開火的武器系統。Amodei 說,今天的 AI 模型根本還沒有可靠到足以承擔這種責任。他在訪問裡說:「任何真正和 AI 模型合作過的人都知道,它存在一種根本的不可預測性,是我們在技術上還沒有解決的問題。」

五角大廈的立場是:這些事情都合法,你一個私人公司沒有資格劃這條線。

Anthropic 的立場是:他們不是在替軍方做決策,他們只是不願意在法律還沒有追上技術之前,成為那些重大爭議決策背後的工具。

回到目錄


中國的影子:那 2.4 萬個假帳號

要理解 Anthropic 在這場衝突中的位置,必須先看另一件事。

2026 年 2 月,Anthropic 公開指控三家中國 AI 公司——DeepSeek、Moonshot AI 與 MiniMax——利用超過 2.4 萬個假帳號,對 Claude 進行了超過 1,600 萬次互動,採用一種叫「蒸餾(distillation)」的技術,試圖竊取 Claude 的核心能力,特別是代理式推理、工具使用和程式編碼。

Anthropic 追蹤到 DeepSeek 超過 15 萬次的互動,其中有一個令人不安的細節:他們的目標之一,是讓模型學會對政治敏感問題給出「符合中國審查要求的安全替代回應」。他們不只是在抄技術,他們還在讓技術學會配合威權審查的邏輯。

Anthropic 在公開聲明中寫道,透過非法蒸餾建立的模型,很可能無法保留原本的安全防護——這意味著危險能力可能在缺乏多數保護機制的情況下擴散出去。

公司因此呼籲進一步收緊對中國的 AI 晶片出口管制。Amodei 更早在達沃斯公開說,向中國出售高階 AI 晶片就像「把核武賣給北韓」。

這是一家在對中國 AI 威脅的判斷上,立場和美國國家利益高度一致的公司。這一點,和它後來在五角大廈議題上的立場放在一起看,呈現出一個完整的圖像:Anthropic 不是反政府,也不是反軍方,它只是反對讓 AI 在沒有人類監督的情況下對付人類——不管那個對象是外國敵人,還是本國公民。

回到目錄


科技跑在法律前面:我們該怎麼辦?

這場衝突有一個深層問題,是所有討論都在迴避的:

如果技術發展的速度永遠快過法律,那誰來填補那個空白?

《The Coming Wave》的作者 Mustafa Suleyman,是 Google DeepMind 的共同創辦人,也是當今最重要的 AI 思想家之一。他在書裡提出了一個他稱之為「圍堵(containment)」的核心命題:AI 的擴散速度已經超過了任何現有治理機制的能力,而我們面對這個問題有三條路,但每一條都有代價。

一是放慢科技本身的速度。暫停開發,等待法律和監管趕上。代價是:中國不會暫停,美國單方面放慢只會讓競爭優勢倒向威權體制。

二是讓企業自主控管。由 AI 公司設定自己的使用限制,就像 Anthropic 現在正在做的事。代價是:沒有選舉授權的私人公司,憑什麼做出這些影響深遠的決定?Palmer Luckey 把這叫做「企業威權主義」,不是沒有道理。

三是加速立法跟上。由民選機構在最短時間內建立新的法律框架,讓政府的 AI 使用受到明確的司法授權和國會監督。這是最理想的路,也是最難在短期實現的路——因為美國國會平均需要幾年到幾十年的時間才能通過重要的科技立法。

Amodei 在 CBS 的訪問裡也提到了這個困境。他說,大規模 AI 監控之所以合法,「不是因為法律允許,而是因為法律還不知道這件事的存在。技術的發展超前了法律的步伐。」

這不是 Anthropic 獨有的處境。這是整個 AI 時代的困境。

在法律跟上之前,有人必須在某個地方站著,說「這件事等一下」。目前,Anthropic 選擇了站在那個位置。這是一個有代價的選擇——財務上、政治上都有代價。但如果沒有任何人站在那個位置,空白期間會發生什麼事,我們不需要太多想像力就能描繪出來。

回到目錄


Ben Thompson 的冷靜分析:核武隱喻

住在台灣的科技評論家 Ben Thompson,是全球最受推崇的科技產業分析師之一。他的訂閱電子報 Stratechery 在矽谷圈子裡有著舉足輕重的影響力。他在台灣生活,深刻理解一個民主社會在威權勢力侵蝕下的脆弱與韌性。

他在 〈Anthropic and Alignment〉 一文中,提出了一個殘酷但清醒的框架。

他先從美伊戰爭談起,指出國際法之所以有效,根本原因是有沒有人能夠執行它——沒有超國家的強制力,「誰違法」最終取決於誰更強。力量(might)才是最終裁決者。

然後他把這個邏輯投射到 AI 上:如果 AI 的戰略價值真的接近核武,那它實質上會改變全球的權力結構。而一個具備這種分量的技術,不可能長期讓一家未經選舉的私人公司握有最終裁量權。

Thompson 指出了 Amodei 論述裡的一個內在張力:Amodei 自己說過「向中國出售高階 AI 晶片如同把核武賣給北韓」——既然他認為 AI 等同核武,那美國政府為何會容許一家私人公司握有這等戰略資產的最終決定權?

他的結論近乎二元:Anthropic 要不接受從屬於國家決策架構,要不就承受政府以法律乃至更激烈手段削弱其獨立性的壓力。

Thompson 並不是在為五角大廈辯護。他指出 Anthropic 對監控的憂慮在法律層面是合理的,只是解決途徑應該是立法,而不是讓一家公司單方面設定限制。

這是一個清醒的分析。它的意思是:即使 Anthropic 是對的,它所選擇的方式也可能引發更大的問題。

回到目錄


Anduril CEO 的另一面:民主誰說了算?

Anduril 是美國最重要的國防科技新創之一,以無人機、反無人機和 AI 武器系統為核心。創辦人 Palmer Luckey 在這場衝突中的立場非常明確——他站在五角大廈那一邊。

他說了這樣一句話:「任何說國防企業應該超越法律、超越立法者和民選領袖來決定合作對象的人,你等於是在說你不相信這個民主實驗,你想要的是一種『企業威權主義』。」

這個論點不是沒有說服力。在民主社會,軍事能力的使用授權應該屬於民選政府,不應該由科技公司 CEO 代替選民做決定。如果讓私人企業決定哪些武器可以製造、哪些技術可以使用,反而是一種危險的去民主化。

但這個論點有一個它自己沒有回答的問題:

「合法」的邊界,是誰畫的?

如果民選政府的決定是「允許 AI 在沒有司法授權的情況下追蹤所有公民」,而這件事之所以合法,是因為法律還沒有來得及禁止它——那這個「由人民決定」的民主程序,保護的到底是誰的自由?

Anthropic 的立場不是「我們比政府更懂」,而是「在法律趕上技術之前,我們不願意成為填補空白的那個工具」。這兩個立場之間的差距,比表面上看起來的要大得多。

回到目錄


OpenAI 的決定,以及一個人的辭職

五角大廈宣布 Anthropic 禁令的幾小時後,Sam Altman 宣布:OpenAI 與國防部達成協議,允許其 AI 模型在機密網路中部署。

時機過於完美,讓很多人感到不舒服。

Altman 後來在 X 上承認,這件事看起來「投機而且草率(opportunistic and sloppy)」,並表示公司「不應該這樣倉促」。

OpenAI 隨後修改協議,加入了禁止大規模國內監控的條款——措辭和 Anthropic 最初要求的保護幾乎一致。Altman 甚至在事後公開表示,他希望五角大廈能給 Anthropic 和 OpenAI 相同的合約條款。

但就在協議宣布後不久,OpenAI 機器人部門負責人 Caitlin Kalinowski 在 X 和 LinkedIn 上公開宣布辭職。

她在貼文裡寫道:「AI 在國家安全中確實扮演重要角色。但在沒有司法授權的情況下監控美國人,以及在沒有人類授權的情況下執行致命行動,是應該被更慎重討論的紅線,而這個決定沒有做到。這是關於原則,不是關於人。」

她說,她對 Altman 和整個 OpenAI 團隊仍有深深的敬意。問題不在人,在於這件事被決定得太快了。

這是 OpenAI 內部對五角大廈協議表達異議的最高層級聲音。當一家公司最資深的部門負責人之一,因為對合約的倫理疑慮而辭職,這件事本身就說明了一些事情。

回到目錄


微軟出手,商業代價已現

五角大廈的禁令帶來的商業衝擊不是假設性的。

Anthropic 財務長 Krishna Rao 在法庭文件中估計,若黑名單措施維持不變,公司 2026 年的營收可能損失「數十億美元」。原本預計 2026 年超過 5 億美元的公部門年度經常性收入,可能大幅縮水甚至完全消失。已有超過 100 家企業客戶表達困惑與疑慮,一家每年合約規模達數百萬美元的夥伴已轉向競爭對手,另有多筆總計逾億美元的金融業合作中斷。

3 月 10 日,微軟向法院提交文件,支持 Anthropic 的訴訟,要求法院發布臨時限制令阻止禁令生效。

微軟的理由很有意思。它的文件警告:若禁令維持,公司及其他科技企業可能需要「立即調整目前與國防部相關的產品與合約配置」,而這「可能在關鍵時刻削弱美軍作戰能力」。

五角大廈試圖以「國家安全」為由封殺 Anthropic,微軟卻用同樣的「國家安全」邏輯,主張封殺本身才是對國家安全的威脅。

與此同時,科技業有近 900 名工程師連署,其中包括約 800 名 Google 員工和近 100 名 OpenAI 員工,公開反對軍方對 Anthropic 的行動,呼籲國防部撤回「供應鏈風險」的認定。

這場衝突已不只是 Anthropic 一家公司的事。

回到目錄


Anthropic 是愛國企業嗎?

這個問題的答案,取決於你怎麼定義「愛國」。

如果愛國意味著服從政府的要求,那 Anthropic 不是。

如果愛國意味著維護這個國家建立的價值——免於任意監控的自由,以及人類對致命武器的最終控制權——那 Anthropic 的立場反而比任何人都更接近那個定義。

Anthropic 是第一家把 Claude 部署進美軍機密雲端的 AI 企業。他們在情報界和軍事任務支援上的合作深度,超過了大多數同業。他們公開指控中國 AI 公司竊取技術,呼籲收緊晶片出口管制,明確把中國的 AI 擴張定性為民主世界的威脅。

他們的立場不是「AI 不應該用於軍事」,而是「AI 不應該在不受監督的情況下被用來對付美國公民」。這兩者之間有非常大的差別。

Amodei 在 CBS 訪問最後說:「不同意政府的決定,是世界上最美國的事情之一。我們在這件事上的每一個選擇,都是為了這個國家的價值而站立。」

中國不需要 AI 安全護欄,因為它的政治體制本來就建立在監控和管控上。而如果美國因為追求軍事效率,把 AI 安全護欄全部拆掉,美國和中國之間的制度差異,就會開始縮小。

這正是 Anthropic 不願退讓的核心邏輯。而如果這個邏輯是對的,那它的重要性——對民主體制的長遠存活而言——不亞於任何一場實體戰爭。

回到目錄


戰場之外的戰場

美伊戰爭佔據了所有的頭條。飛彈、油輪、空襲、油價。這些都是看得見的衝突。

但有一場戰爭正在視線之外進行,它的戰場是 AI 模型的使用條款,是聯邦法院的訴狀,是一封 1,500 萬人看過的辭職信,是近 900 名工程師的連署,是一家公司選擇在巨大的商業壓力面前不讓步。

你可以認同 Anthropic 的做法。你也可以認為 Palmer Luckey 說得有道理,私人公司不應該凌駕民選政府做出這類決定。你更可以認為 Ben Thompson 是對的,AI 的戰略分量讓國家控制權不可避免。

這些都是值得認真面對的立場。

但有一件事是確定的:在 AI 技術已經能夠建立從未有過的監控能力、而法律還沒有跟上的這段空白期間,某個地方必須有人站著說「等一下,我們還沒有談清楚這件事」。

那個人,或那家公司,會付出代價。

我們還沒有想清楚的問題是:

在法律終於跟上技術之前,那個代價應該由誰來承擔?

還有一個更安靜的問題,在所有新聞的喧嚷過去之後,值得獨自坐著想一想:

當一個社會決定讓 AI 在法律灰色地帶運作,它所付出的,是哪一種自由?


本文綜合整理自 CBS News(Dario Amodei 專訪逐字稿)、鉅亨網、ABMedia、TechNews、中央社、Ben Thompson(Stratechery《Anthropic and Alignment》)等媒體報導與分析文章。


#ai #anthropic #democracy #pentagon #tech

signature head
關於這裡 台灣人。台派。喜歡把事情搞清楚。

凡是能解釋「為什麼」的事,我都著迷。科學、創新、哲學、投資,本質上是同一件事:找出規律,然後解開。

讀到真正新奇的東西,會興奮到發抖。

不在書桌前的時候,就在山上、水裡、或某個還沒搭營地的空地。

contact via teamtaiwan.trophy127@passmail.net
本站僅提供參考,不是人生建議,不是醫療建議,不是投資建議。