美國參議院重量級議員伊莉莎白·華倫(Elizabeth Warren)於3月23日正式致函國防部長乘特·赫格塞斯(Pete Hegseth),針對五角大廈將AI公司Anthropic列為「供應鏈風險」一事展開調查,直指該決定「明顯帶有報復性質」,並同步追查國防部與OpenAI簽訂機密網路合約的幕後細節。

事件起因要追溯至今年二月底。當時Anthropic拒絕國防部的要求,堅持不移除合約中兩項關鍵安全條款——禁止將其AI技術用於大規模國內監控,以及禁止在無人類介入的情況下部署全自主武器系統。國防部隨即於二月底正式將Anthropic列為「供應鏈風險」,這是美國本土企業首次獲此標籤。該標籤原本專門用於應對來自中國、俄羅斯等對手國家的安全威脅,如今卻被用在一家矽谷AI公司身上,引發科技界與法律界的廣泛震驚。

華倫在信中明確指出,國防部完全可以選擇終止與Anthropic的合約,卻反而動用供應鏈風險這一「核武級」手段。這項標籤不僅禁止Anthropic直接為國防部服務,更要求所有與五角大廈有業務往來的企業和機構都必須證明自身未使用Anthropic的產品——等同於將Anthropic徹底逐出整個國防生態系。華倫嚴辭批評此舉是在「強迫美國企業為政府提供監控國民和部署全自主武器的工具」。

更引人注目的是時間線上的巧合。就在Anthropic被列入黑名單的同一天,國防部宣布與OpenAI簽訂合約,將其技術引入軍方機密網路。OpenAI執行長山姆·奧特曼(Sam Altman)事後也承認,這一時機的巧合「看起來既投機又草率」。華倫在調查中特別質疑:OpenAI是否具備與Anthropic同等級的安全防護措施?國防官員是否在使用OpenAI技術時擁有「不受限制地進行國內監控的自由」?

值得關注的是,Anthropic的AI助手Claude在被封殺前已廣泛滲透至美國軍方的日常運作中,據報導「幾乎在軍方各部門每日使用」。突然切斷這一技術供應,不僅涉及倫理爭議,更可能對軍事運作效率造成實質衝擊。

科技業界對此事件的反應同樣引人矚目。超過三十名來自OpenAI和Google DeepMind的員工聯名提交法庭文件聲援Anthropic,其中包括Google DeepMind首席科學家傑夫·迪恩(Jeff Dean)。多家科技公司和民權組織也紛紛提交法庭之友意見書,譴責五角大廈此舉開創了危險先例。

案件的下一個關鍵節點就在今天。舊金山聯邦法院法官芮塔·林(Rita Lin)將於3月24日就Anthropic申請的初步禁制令舉行聽證,以決定是否在訴訟審理期間維持現狀。與此同時,華倫已要求國防部長赫格塞斯和OpenAI執行長奧特曼在4月6日之前提交書面回覆。

這場圍繞AI軍事應用的風暴,已從一家公司的商業糾紛升級為牽動國會、司法系統與整個科技產業的重大政策辯論。其核心問題直指未來AI治理的根本:當企業基於倫理考量拒絕政府的無限制使用要求時,是否會面臨來自國家機器的系統性報復?這個問題的答案,將深刻影響全球AI安全規範的走向。