
商傳媒|何映辰/台北報導
AI 安全公司 Anthropic 近日揭示其在開發大型語言模型 Claude 的 AI 代理工具時所採用的設計哲學,強調「漸進式揭露」(progressive disclosure)原則,此一策略旨在讓 AI 模型能更有效率地感知並運用工具。Anthropic 工程師 Thariq Shihipar 將此方法描述為「像代理一樣思考」(seeing like an agent),深入探討 AI 模型如何理解及操作工具。
Anthropic 工程團隊在 Claude 的問答功能開發上歷經三次嘗試,最終成功導入專用的 AskUserQuestion 工具,透過模態介面(modal interface)觸發,讓模型能主動提問。早期的 Claude Code 曾使用 TodoWrite 工具搭配系統提醒進行任務管理,然而隨著模型能力的提升,該工具反而變得不合時宜,最終被更具彈性的 Task 工具取代。
在上下文檢索方面,Claude Code 初期採用檢索增強生成(RAG)技術來提供上下文,但此方法顯得脆弱,且是直接提供上下文給 Claude,而非讓模型自行尋找。為了解決此問題,Anthropic 為 Claude 導入了 Grep 工具,並結合「代理技能」(Agent Skills)以進行遞迴式檔案探索,使模型能夠在多個檔案中執行巢狀搜尋以獲取所需資訊。
目前,Claude Code 約使用 20 種工具,Anthropic 對於新增工具設有嚴格標準。為處理使用者對 Claude Code 本身提出的疑問,Anthropic 另建置了專門的子代理(subagent),使其能在自身的上下文中搜尋文件,避免為主代理增加不必要的工具。這也再次印證了 Anthropic 設計哲學中的核心概念——代理透過漸進式揭露,逐步發現相關資訊。
為滿足日益增長的 AI 服務需求,Anthropic 也與 CoreWeave 公司簽訂多年協議,租用其數據中心算力。這項合作將支援 Anthropic 建構與部署其 Claude AI 模型,並利用位於美國數據中心內的多種 Nvidia 圖形處理器(GPU)架構,確保模型運算資源的穩定供給。Anthropic 工程師指出,工具設計需要隨著模型能力的演進不斷迭代,此舉正是其核心的設計理念。
