260312-Anthropic vs 五角大廈:這不只是一家公司的選擇

AI 監控的戰線,早就越過你我以為的邊界。

2026 年 2 月底,美伊戰爭剛剛開打的那個星期。

美國國防部長 Pete Hegseth 下了最後通牒:美國公司 Anthropic 若不在週五下午 5 點 01 分前讓步,將被打上「供應鏈風險」的標籤——這個標籤,向來只貼在中國企業或俄羅斯企業身上。

Anthropic CEO Dario Amodei 沒有讓步。


目錄


一家公司,一個宣言

Amodei 後來在 CBS 的訪問裡說了這樣一段話:

「我們是愛國的美國人。我們所做的一切,都是為了這個國家,為了支持美國的國家安全。不同意政府的決定,是世界上最美國的事情之一。我們是愛國者。」

這不只是一場商業上的對峙。這是一條關於 AI 時代、公民自由與國家權力邊界在哪裡的宣言。

有人說,這件事的重要程度,不亞於正在中東燃燒的那場戰爭。

說這話的人沒有在誇大。那場戰爭打完了,世界照樣運轉。但這場衝突的走向,將決定在 AI 時代裡,民主體制的骨架究竟還剩多少。

回到目錄


事件時間軸

這場衝突走得很快。

2021 年,Dario Amodei 和幾位前 OpenAI 研究員,因為對 AI 安全的深切憂慮而出走,創立了 Anthropic。他們的立場從一開始就很清楚:AI 若不謹慎建造,人類文明將付出無法挽回的代價。

幾年之後,Anthropic 卻成了第一家將模型部署進美軍機密雲端的 AI 企業。他們在情報體系和軍事任務支援上的合作程度,遠超過多數同業。Anthropic 從來不是反軍事的公司——他們真心相信,美國需要 AI 優勢來抗衡威權體制,尤其是中國。

問題出在 2026 年初。

五角大廈要求取得 Claude 在「所有合法用途」下的完整使用授權,其中包含兩件 Anthropic 明確說不的事:大規模國內監控,以及完全自主武器(不需要任何人類介入就能開火的系統)。

2 月 26 日,Anthropic 正式拒絕。

2 月 27 日,Hegseth 宣布禁令。幾個小時後,川普在社群平台公開砲轟 Anthropic,要求所有政府機構立即停用 Claude。同一天,美軍對伊朗發動空襲。

OpenAI 的 Sam Altman 則在當天稍晚宣布,OpenAI 已和五角大廈達成協議。

3 月 9 日,Anthropic 向加州聯邦法院提告,稱政府行動「前所未有且違法」,並主張政府此舉侵犯了公司的言論自由與正當程序權利。

3 月 10 日,微軟向法院提交文件,公開聲援 Anthropic,要求法院頒布臨時限制令,阻止禁令正式生效。

回到目錄


Anthropic 到底在拒絕什麼

值得停下來想清楚這件事,因為很容易被政治噪音淹沒。

Anthropic 並不是在拒絕和軍方合作。他們已經在做,而且做得比所有 AI 企業都更深。Amodei 在 CBS 的訪問裡說得很直接:「我們對國防部所有用途都 OK,基本上是 98% 或 99% 的用途,除了我們擔憂的兩件事。」

第一件事,大規模國內監控。五角大廈要求的是「所有合法用途」。但 Amodei 的解釋是,問題恰恰出在「合法」這兩個字上——有一種監控行為,在技術上沒有違法,是因為法律壓根還沒有追上技術的步伐。從私人企業購買的零散個人資料,透過 AI 拼接成對每位公民的完整追蹤檔案,這件事在 AI 問世之前根本辦不到,所以法律從來沒有被設計來阻止它

「技術發展的速度,超前了法律。」

第二件事,完全自主武器——不需要任何人類參與就能自行開火的武器系統。Amodei 說,今天的 AI 模型根本還沒有可靠到足以承擔這種責任。他在訪問裡說:「任何真正和 AI 模型合作過的人都知道,它存在一種根本的不可預測性,是我們在技術上還沒有解決的問題。」

五角大廈的立場是:這些事情都在法律允許範圍內,一家私人公司沒有資格在這裡劃線。

Anthropic 的立場是:他們不是要替軍方拍板決策,他們只是不願意在法律還沒趕上技術之前,成為讓那些重大決策得以執行的底層工具。

回到目錄


中國的影子:那 2.4 萬個假帳號

要理解 Anthropic 在這場衝突裡的位置,必須先看另一件事。

2026 年 2 月,Anthropic 公開指控三家中國 AI 公司——DeepSeek、Moonshot AI 與 MiniMax——利用超過 2.4 萬個假帳號,對 Claude 發動了超過 1,600 萬次互動,採用一種叫「蒸餾(distillation)」的技術,系統性地竊取 Claude 的核心能力,鎖定目標包括代理式推理、工具使用和程式編碼。

Anthropic 追蹤到 DeepSeek 超過 15 萬次的互動,其中有一個格外令人不安的細節:他們的目標之一,是讓模型學會對政治敏感問題給出「符合中國審查要求的安全替代回應」。這不只是技術層面的抄襲,他們還在訓練模型吸收威權審查的思維邏輯。

Anthropic 在公開聲明中指出,透過非法蒸餾建立的模型,很可能無法保留原本的安全防護機制——這意味著危險能力可能在幾乎沒有任何保護的情況下對外擴散。

公司因此呼籲進一步收緊對中國的 AI 晶片出口管制。Amodei 更早在達沃斯公開說,向中國出售高階 AI 晶片就像「把核武賣給北韓」。

這是一家在對中國 AI 威脅的判斷上,立場和美國國家利益高度咬合的公司。把這一點和它在五角大廈議題上的立場擺在一起,浮現出的是一幅完整的圖像:Anthropic 不是反政府,也不是反軍方,它反對的是讓 AI 在沒有任何人類監督的前提下被用來對付人類——不論那個對象是境外敵人,還是本國公民。

回到目錄


科技跑在法律前面:我們該怎麼辦?

這場衝突有一個深層問題,是所有討論都在迴避的:

如果技術發展的速度永遠快過法律,那誰來填補那個空白?

《The Coming Wave》 的作者 Mustafa Suleyman,是 Google DeepMind 的共同創辦人,也是當今最具影響力的 AI 思想家之一。他在書中提出了一個他稱之為「圍堵(containment)」的核心命題:AI 的擴散速度已經徹底超越了任何現有治理機制的承載能力,而我們面對這道難題,其實只有三條路可走,但每一條都要付出代價。

一是放慢科技本身的速度。先暫停開發,等法律和監管追上來。代價是:中國不會跟著暫停,美國若單方面踩煞車,競爭優勢就會滑向威權體制那一邊。

二是讓企業自主控管。由 AI 公司各自設定使用限制,也就是 Anthropic 現在正在做的事。代價是:一家沒有民選授權的私人公司,憑什麼做出這些牽動深遠的決定?Palmer Luckey 稱之為「企業威權主義」,這個說法並非毫無根據。

三是加速立法跟上。由民選機構以最快速度建立新的法律框架,讓政府的 AI 使用行為受到明確的司法授權和國會監督。這是三條路裡最理想的一條,也是短期內最難走通的——美國國會通過一部重要的科技立法,往往需要幾年,甚至幾十年。

Amodei 在 CBS 的訪問裡也談到了這個困境。他說,大規模 AI 監控之所以算合法,「不是因為法律允許,而是因為法律還不知道這件事的存在。技術的發展超前了法律的步伐。」

這不是 Anthropic 獨有的處境。這是整個 AI 時代共同面對的困境。

在法律跟上之前,某個地方必須有人站著,說「這件事等一下」。目前,Anthropic 選擇站在那個位置。這是一個有代價的選擇——財務上、政治上,代價都是真實的。但如果沒有任何人站在那個位置,空白期間會發生什麼事,不需要太豐富的想像力就能描繪出來。

回到目錄


Ben Thompson 的冷靜分析:核武隱喻

長居台灣的科技評論家 Ben Thompson,是全球最受推崇的科技產業分析師之一。他的訂閱電子報 Stratechery 在矽谷有著相當份量的影響力。在台灣生活的經歷,讓他對民主社會如何在威權壓力下保持韌性,有著格外貼身的理解。

他在〈Anthropic and Alignment〉一文中,提出了一個殘酷而清醒的分析框架。

他從美伊戰爭切入,指出國際法之所以有效,根本原因不在道義,而在是否有力量執行——沒有超國家的強制機制,「誰違法」這個問題的答案,終究由誰更強來決定。力量(might)才是最後的裁決者。

接著他把這個邏輯投射到 AI 上:如果 AI 的戰略價值真的接近核武等級,那它實質上將重塑全球的權力格局。而一項具備這種分量的技術,不可能長期讓一家未經選舉的私人公司握有最終裁量權。

Thompson 也點出了 Amodei 論述裡的一個內在張力:Amodei 自己說過「向中國出售高階 AI 晶片如同把核武賣給北韓」——若他真的認為 AI 等同核武,那美國政府又為何會長期容許一家私人公司掌有這等戰略資產的最終決定權?

他給出的結論近乎二選一:Anthropic 要不接受從屬於國家決策框架的位置,要不就得承受政府透過法律或更強硬手段來削弱其獨立性的壓力。

Thompson 並不是在替五角大廈辯護。他指出 Anthropic 對監控問題的憂慮,在法律層面確實站得住腳,只是解決方式應該是推動立法,而不是讓一家公司單方面畫紅線。

這是一個清醒的分析。它暗示的是:即使 Anthropic 的判斷是對的,它選擇的應對方式也可能埋下更大的問題。但在更好的方式出現之前,這個選擇依然需要有人做出來。

回到目錄


Anduril CEO 的另一面:民主是誰說了算?

Anduril 是美國最舉足輕重的國防科技新創之一,核心業務涵蓋無人機、反無人機系統與 AI 武器平台。創辦人 Palmer Luckey 在這場衝突中的立場毫不含糊——他站在五角大廈那一邊。

他說了這樣一句話:「任何說國防企業應該超越法律、超越立法者和民選領袖來決定合作對象的人,你等於是在說你不相信這個民主實驗,你想要的是一種『企業威權主義』。」

這個論點有其說服力。在民主社會,軍事能力的動用授權本來就應該屬於民選政府,而不是由科技公司的 CEO 替選民做決定。如果讓私人企業來決定哪些武器可以製造、哪些技術可以部署,反而是一種隱性的去民主化。

但這個論點有一個它自己始終沒有回答的問題:

「合法」的邊界,是誰畫的?

如果民選政府的決定是「允許 AI 在沒有司法授權的情況下追蹤所有公民」,而這件事之所以合法,只是因為法律還沒有來得及把它列為違法——那這個「由人民決定」的民主程序,到底在保護誰的自由?

Anthropic 的立場不是「我們比政府更懂」,而是「在法律趕上技術之前,我們不願意成為填補那段空白的工具」。這兩個立場之間的距離,比表面上看起來的要遠得多。

回到目錄


OpenAI 的決定,以及一個人的辭職

五角大廈宣布對 Anthropic 祭出禁令的幾個小時後,Sam Altman 宣布:OpenAI 已和國防部達成協議,允許其 AI 模型部署於機密網路之中。

時機過於完美,讓很多人感到不舒服。

Altman 後來在 X 上坦承,這件事看起來「投機而且草率(opportunistic and sloppy)」,並說公司「不應該這樣倉促」。

OpenAI 隨後修改了協議內容,加入了禁止大規模國內監控的條款——措辭和 Anthropic 最初堅持的保護幾乎如出一轍。Altman 甚至在事後公開表示,他希望五角大廈能給 Anthropic 和 OpenAI 完全相同的合約條件。

但就在協議宣布後不久,OpenAI 機器人部門負責人 Caitlin Kalinowski 在 X 和 LinkedIn 上公開宣布辭職。

她在貼文裡寫道:「AI 在國家安全中確實扮演重要角色。但在沒有司法授權的情況下監控美國人,以及在沒有人類授權的情況下執行致命行動,是應該被更慎重討論的紅線,而這個決定沒有做到。這是關於原則,不是關於人。」

她說,她對 Altman 和整個 OpenAI 團隊仍懷有深深的敬意。問題不在人,在於這件事被決定得太快了。

這是 OpenAI 內部對五角大廈協議表達異議的最高層級聲音。當一家公司最資深的部門負責人之一,因為合約背後的倫理疑慮而選擇辭職,這件事本身已經說明了一些什麼。

回到目錄


微軟出手,商業代價已現

五角大廈的禁令所帶來的商業衝擊,不是假設性的。

Anthropic 財務長 Krishna Rao 在法庭文件中估算,若黑名單措施維持不變,公司 2026 年的營收可能蒸發「數十億美元」。原本預計全年超過 5 億美元的公部門年度經常性收入,可能大幅萎縮甚至歸零。目前已有超過 100 家企業客戶表達困惑、疑慮與觀望,一家年合約規模達數百萬美元的夥伴已轉向競爭對手,另有多筆總計逾億美元的金融業合作計畫被迫中止。

3 月 10 日,微軟向法院提交文件,聲援 Anthropic 的訴訟,要求法院頒布臨時限制令,阻止禁令正式生效。

微軟的論點耐人尋味。文件中警告:若禁令持續,公司及其他科技企業可能被迫「立即調整目前與國防部相關的產品與合約配置」,而這「可能在關鍵時刻削弱美軍的作戰能力」。

五角大廈以「國家安全」為由封殺 Anthropic,微軟卻用同樣的「國家安全」邏輯,反過來主張封殺本身才是對國家安全的真正威脅。

與此同時,科技業已有近 900 名工程師聯署,其中包含約 800 名 Google 員工和近 100 名 OpenAI 員工,公開反對軍方對 Anthropic 的行動,並呼籲國防部撤回「供應鏈風險」的認定。

這場衝突早就不只是 Anthropic 一家公司的事了。

回到目錄


Anthropic 是愛國企業嗎?

這個問題的答案,取決於你怎麼定義「愛國」。

如果愛國意味著服從政府的每一道命令,那 Anthropic 不是。

如果愛國意味著守護這個國家建立時所依憑的價值——免於任意監控的自由,以及人類對致命武器的最終控制權——那 Anthropic 的立場,反而比任何人都更貼近那個定義的核心。

Anthropic 是第一家把 Claude 部署進美軍機密雲端的 AI 企業。他們在情報社群和軍事任務支援上的合作深度,超過了絕大多數同業。他們公開指控中國 AI 公司竊取技術,呼籲收緊晶片出口管制,明確將中國的 AI 擴張定性為民主世界所面臨的系統性威脅。

他們的立場不是「AI 不應該用於軍事」,而是「AI 不應該在缺乏監督的情況下被用來對付美國自己的公民」。這兩個句子之間,有一道非常寬的鴻溝。

Amodei 在 CBS 訪問最後說:「不同意政府的決定,是世界上最美國的事情之一。我們在這件事上的每一個選擇,都是為了這個國家的價值而站立。」

中國不需要 AI 安全護欄,因為它的政治體制本來就建立在監控和管控之上。而如果美國為了追求軍事效率,把 AI 的安全護欄逐一拆除,美國與中國之間的制度差異,就會從內部開始縮小。

這正是 Anthropic 不願退讓的核心邏輯。若這個邏輯成立,那它的重要性——對民主體制能否長遠存活而言——不亞於任何一場以槍砲打響的戰爭。

回到目錄


戰場之外的戰場

美伊戰爭佔據了所有的頭條。飛彈、油輪、空襲、油價。這些都是看得見的衝突。

但有一場戰爭正在視線之外進行,它的戰場是 AI 模型的使用條款,是聯邦法院的訴狀,是一封 1,500 萬人看過的辭職信,是近 900 名工程師的連署,是一家公司選擇在巨大的商業壓力面前不讓步。

你可以不同意 Anthropic 的做法。你可以認為 Palmer Luckey 說得有道理,私人公司不應該凌駕民選政府做出這類決定。你可以認為 Ben Thompson 是對的,AI 的戰略分量讓國家控制權不可避免。

這些都是值得認真面對的立場。

但有一件事是確定的:在 AI 技術已經能夠建立從未有過的監控能力、而法律還沒有跟上的這段空白期間,某個地方必須有人站著說「等一下,我們還沒有談清楚這件事」。

那個人,或那家公司,會付出代價。Anthropic 正在付出它的代價。

我們還沒有想清楚的問題是:

在法律終於跟上技術之前,那個代價應該由誰來承擔?承擔它的,算不算是一種愛國?

還有一個更安靜的問題,在所有新聞的喧嚷過去之後,值得獨自坐著想一想:

當一個社會決定讓 AI 在法律灰色地帶運作,它所付出的,是哪一種自由?


本文綜合整理自 CBS News(Dario Amodei 專訪逐字稿)、鉅亨網、ABMedia、TechNews、中央社、Ben Thompson(Stratechery《Anthropic and Alignment》)等媒體報導與分析文章。


#ai #anthropic #democracy #pentagon #tech

藥師琉璃光如來
關於這裡 台灣人。見過太多藍白的壞事,雖有菩薩心,但也有用來懲戒的金剛力。

這裡寫的,是那些以為沒人看見的人,以及他們欠下的帳。

業力不需要我來執行,但我可以把燈打開。

不在鍵盤前的時候,就在廟裡,或某個還沒被雜草污染的靜地。

相信善有善報,也相信惡有惡報,只是時候未到。
本站僅提供參考,不是法律建議,不是宗教建議,不是人生建議。