
商傳媒|葉安庭/綜合外電報導
人工智慧新創公司 Anthropic 旗下終端型 AI 編碼助理 Claude Code 的完整原始碼,近期因配置錯誤意外在 npm 註冊表上曝光。這起被社群媒體形容為「2026 年最大 AI 洩漏」的事件,不僅揭露了約 50 萬行內部程式碼與系統運作細節,更在隨後的資安分析中被發現存在數個高風險命令注入漏洞,對 AI 模型供應鏈安全構成嚴峻挑戰。
根據《MSN》報導,這批外洩的程式碼庫約 57 MB,包含超過 50 萬行程式碼及逾 1,900 個檔案。內容涵蓋 Claude Code 的實現細節、內部運作、多代理工作流程、系統提示與工具整合等關鍵資訊,但 Anthropic 強調不包含模型權重或用戶數據。Anthropic 在回應《消費者新聞與商業頻道 (CNBC)》時表示,這次事件是其內容管理系統配置上的人為錯誤所致,而非網路攻擊。一名用戶在社群媒體上引述 Anthropic 此前在安全方面「鎖好每道門」的聲明,並諷刺這起事件如同「將你的平面圖上傳到 Google Maps」。
然而,《Let’s Data Science》隨後的分析指出,洩漏的程式碼為 59.8 MB 的 JavaScript 原始碼映射,其中發現三個被列為 CVE-2026-35022 的嚴重命令注入漏洞,CVSS 評分高達 9.8。這些漏洞允許惡意行為者在無需用戶互動的情況下執行任意命令,或透過惡意設定竊取開發者環境中的 API 金鑰。資安研究團隊 ThreatLabz at Zscaler 已記錄到惡意人士利用誘餌儲存庫散播 Vidar 和 Ghostsocks 等惡意軟體的案例。
這次洩漏事件不僅讓競爭對手和研究人員得以深入了解先進 AI 編碼代理的內部架構與安全設計,更成為惡意行為者發動供應鏈攻擊的潛在機會。由於外洩程式碼在 GitHub公司上被廣泛存檔與分叉,惡意修改的版本可能被誤認為合法社群專案而散播。研究人員預計,將會出現協同性的武器化嘗試,透過誘餌儲存庫和 npm 拼寫錯誤網域劫持(typosquats)等方式發動攻擊。
Anthropic 的「安全優先」定位因這次監督失誤而受到質疑。值得注意的是,這並非 Anthropic 首次面臨此類問題;2025 年初也曾發生源碼映射檔案短暫公開的事件,數天前更有約 3,000 個內部檔案意外曝光。社群媒體用戶阿魯·西里什(user on X)形容這是「Anthropic 超級安全 AI 公司意外將其整個 Claude Code 原始碼打包進一個公開的 npm 套件中」。
此事件對全球 AI 產業發出了嚴峻的警示,特別是對於 AI 模型開發與應用日益蓬勃的台灣。隨著 AI 技術的廣泛採用,確保 AI 模型及其相關開發工具的軟體供應鏈安全變得至關重要。台灣 AI 開發者與企業應借鑑此案例,審慎評估其 AI 模型的資安風險,並加強對外部引入程式碼與開發環境的監控與防護,避免類似的程式碼注入漏洞成為攻擊者滲透的途徑,進而危害資料安全與系統穩定。
