Anthropic 一款從未公開的 AI 模型「Claude Mythos」近日因一場資料外洩事件意外曝光,立即引爆全球 AI 社群的熱烈討論。這款內部代號為「Capybara」的模型,被 Anthropic 稱為公司「迄今為止打造的最強大模型」,代表著 AI 能力的一次「階段性躍遷」。
洩漏始末
據《Fortune》獨家報導,Mythos 的相關資料是透過 Anthropic 內容管理系統的一處設定錯誤,意外出現在可公開存取的資料快取中。該快取包含約三千份未發布的素材,其中涵蓋 Mythos 的效能數據與部署策略草案。Anthropic 在接獲通知後迅速移除了公開存取權限,並證實了這款模型的存在。
效能大幅超越 Opus 4.6
根據洩漏的草案文件,Claude Mythos 在軟體程式設計、學術推理及網路安全等多項基準測試中,表現大幅超越現有旗艦模型 Claude Opus 4.6。Anthropic 在文件中指出,Mythos「在網路安全能力方面遠遠領先任何其他 AI 模型」。作為參考,OpenAI 的 GPT-5.3-Codex 此前才剛被歸類為網路安全領域的「高能力」模型——而 Mythos 顯然已超越這一等級。
網路安全雙面刃
然而,強大的能力也帶來前所未有的風險。Anthropic 在內部文件中表達了對「前所未有的網路安全風險」的擔憂,認為該模型可能被用於發動大規模 AI 驅動的網路攻擊,其速度和規模可能超出現有防禦體系的應對能力。這也是 Anthropic 選擇暫不對外發布的主要原因之一。
謹慎的發布策略
Mythos 目前僅開放給少數早期測試客戶使用,且運行成本極高。Anthropic 表示,團隊正在致力於提升模型的運算效率,待安全評估完成後才會考慮更大規模的部署。這種「先測試、後發布」的策略,與 Anthropic 一貫強調的 AI 安全理念一致。
對產業的影響
Mythos 的曝光再次凸顯了 AI 前沿模型的安全治理議題。隨著各大實驗室競相開發更強大的系統,如何在推進能力邊界的同時確保安全可控,已成為整個產業無法迴避的核心挑戰。Anthropic 的謹慎態度或許為業界樹立了一個值得參考的典範——即便擁有領先技術,也不應在安全準備不足時貿然推向市場。