前六篇我們從 Model ≠ Runtime 一路走到 Skill + Subagent 的組合模式。在這個過程中,有一件事情正在發生:Skill 不再只屬於某一家。
2025 年底,Anthropic 把 Agent Skills 規格開放為開放標準 [4]。OpenAI 的 Codex CLI 採用了同一格式。同一時間,Anthropic 把 MCP 捐贈給 Linux Foundation 的 Agentic AI Foundation,OpenAI 跟 Block 成為共同創辦者。
回到第四篇的預測:Skill 生態系競爭已經開始了。 但走的方向不是碎片化,而是標準化。Tool 層有 MCP,Skill 層開始有共通格式。這代表第四篇講的「誰先建立 Skill 生態系,誰就佔優勢」正在成真 — 只是方式不是各家各做,而是大家搶著定義標準。
但標準化解決的是知識的可攜性。當任務本身需要的不只是知識,而是 多個 Agent 之間的協作 時,我們碰到了一個新的架構問題。
Subagent 的天花板:hub-and-spoke
第六篇結尾我們提到,Subagent 的模式是一對一的:主 Agent 派出去,Subagent 做完回來。所有溝通都經過 parent [5]。
這個模式在大部分情況下夠用。但有一種場景它處理不了:
Sub A 發現了一個關鍵事實,這個事實會改變 Sub B 的研究方向。
在 hub-and-spoke 模式下,A 必須先回報給 Main,Main 再決定要不要通知 B。但 Main 的 Context Window 已經在處理 A、B、C 三個 Subagent 的回報了 [6],他可能根本沒注意到 A 的發現對 B 有影響。
官方文件寫得很明確 [1]:
Subagents cannot spawn other subagents.
Subagent 之間沒有通訊管道,不能互相發訊息,每一個都是獨立隔離的。當你需要的不是「派人去做事」,而是「讓人一起合作」,Subagent 就碰到極限了。
Agent Team:從 hub-and-spoke 到 mesh
2026 年 2 月,Anthropic 推出了 Agent Teams [1](目前是 experimental 功能)。它解決的就是 Subagent 間無法協作的問題。
用比喻來說:Subagent 是你派出去的 專案外包商 — 給他一個任務,做完回來交報告。Agent Team 是你的 專案團隊 — 成員之間會開會、互相更新進度、根據彼此的發現調整方向。
但要注意一件事:Agent Team 不是「共享 Context Window」。
用 Context 流向來理解三者
第五篇我們用 Context 流向來區分 Skill 跟 Subagent。同一個框架可以直接套到 Agent Team 上,把三者放在一起看:
Skill — Context 共存
一個 Context Window,知識直接住在裡面。好處是互動即時,代價是 Context 越來越擠。
Subagent — Context 隔離,單向回報
兩個 Context Window,完全隔離。Subagent 做完後,單向回傳摘要給 parent。Parent 看不到中間過程,Subagent 之間也看不到彼此。
Agent Team — Context 隔離,但有通訊管道
(狀態共享,不是 Context 共享)"] A <-- "mailbox(精簡訊息)" --> B A <--> STL B <--> STL
每個 teammate 仍然有自己獨立的 Context Window — 這一點跟 Subagent 一樣,Context 是隔離的。但差異在於多了兩個東西:
Mailbox(雙向訊息通道):teammate 之間可以直接發訊息,不需要經過 parent。但注意,這不是把整個 Context 丟給對方 — 而是發 精簡的結構化訊息。本質上跟 Subagent Return Contract 的思路一樣(探索深入,傳遞淺層),只是方向從單向變成了雙向。
Shared Task List(狀態共享):所有 teammate 可以看到同一份任務清單 — 誰在做什麼、什麼已完成、什麼還沒認領。這不是 Context 共享,是 狀態共享。每個 agent 的思考過程還是在自己的 Context Window 裡,但透過 task list 知道整體進度。
所以 Agent Team 的 Context 架構可以這樣理解:
隔離的思考,連通的溝通,共享的狀態。
跟 Subagent 比,Agent Team 不是「打破隔離」,而是「在隔離的基礎上,加了通訊管道跟協調層」。Context 沒有變大,而是資訊的流動方式變了。
但 Agent Team 很貴
通訊管道跟協調層不是免費的。每一則 mailbox 訊息、每一次 task list 更新,都是 Token。
Anthropic 的研究數據 [2]:
- Agent 模式的 Token 消耗約 4 倍於普通對話
- Multi-Agent 系統約 15 倍於普通對話
- 實際案例 [3]:16 個 agent 合作蓋一個 C compiler,API 成本 $20,000
15 倍不是小數字。如果一個 Subagent 任務花 $0.10,同樣的工作用 Agent Team 可能花 $1.50。這不是說 Agent Team 不好用,而是你必須問自己:這個任務真的需要 Agent 之間互相溝通嗎?
大部分任務不需要。大部分任務用一個 Agent + 好的 Skill 就夠了(第二篇 Anthropic 的建議)。需要隔離時用 Subagent。只有當任務真的需要多個 Agent 互相協作、結果互相依賴時,才值得開 Agent Team。
完整的決策光譜
把七篇文章的所有工具排在一起:
Skill (inline) → Subagent → Agent Team
成本:低 中 高(15x)
Context:共存 隔離 隔離 + 通訊管道
互動:即時 單向回報 雙向訊息
協調:無 parent 管理 shared task list
適用:知識載入 獨立任務 需要協作的複雜任務
這不是一條「越右邊越好」的光譜。每一個位置都有它最適合的場景,選錯位置付出的代價不是「不夠好」,而是「花了不該花的錢」或「塞爆了不該塞的 Context」。
從第一篇到第七篇
回顧一下我們走過的路:
- Model ≠ Runtime — Skill 活在 Runtime,不是 Model
- 五層架構 — Command → Agent → Tool + Skill → Context
- Context Engineering — JIT、Token 預算、Progressive Disclosure
- Skill 生態系 — 競爭從 Model 轉向 Skill,而且正在標準化
- Skill vs Subagent — 核心區分是 Context 流向
- 組合模式 — 拆階段、fork、preload,加上成本考量
- Agent Team — 隔離的思考,連通的溝通,共享的狀態
貫穿這七篇的主線其實只有一件事:所有決策最終都回到 Context 管理跟成本控制。
最後想說的
寫到這裡,你可能會覺得有一套「正確答案」— 什麼場景用 Skill,什麼場景用 Subagent,什麼場景開 Agent Team。但實務上沒有標準答案。
我們一直在兩件事之間拉扯:
Cost 跟 Performance。
台灣人最喜歡講的 CP 值,在 AI Agent 的世界裡一樣適用。隔離一個 Subagent 能保護 Context,但要花更多 Token。開一個 Agent Team 能讓 Agent 協作,但成本是 15 倍。每一個架構決策背後,都是一筆 CP 值的帳。
同時我們也在 Theory 跟 Practice 之間徘徊。這七篇文章建立了很多原則 — Context 流向、Progressive Disclosure、Subagent Return Contract。這些原則在大部分時候是對的,但它們不是教條。
Skill、Subagent、Agent Team,沒有一個是絕對正確或絕對錯誤的選擇。當你真的在解決問題時,理論是為實用服務的。原則可以打破,但打破的時候,你要清楚知道自己願意付出的 Cost/Performance 比例是多少。
所以當你開始建立你的 AI 團隊時,不要問「哪個架構最正確」,而是問:
在我的限制條件下,這個選擇的 CP 值夠不夠高?
這才是 AI Agent 架構的本質 — 跟所有工程一樣,在限制條件下,做最好的取捨。
參考資料
[1] Anthropic: “Orchestrate Teams of Claude Code Sessions” — 官方對照表:Subagent 只回報給主 Agent;Agent Team 的成員可以直接互傳訊息 https://code.claude.com/docs/en/agent-teams
[2] Anthropic: “How We Built Our Multi-Agent Research System” — “multi-agent systems use about 15x more tokens than chats”;Lead agent 無法引導 subagent、subagent 無法協調 https://www.anthropic.com/engineering/multi-agent-research-system
[3] Anthropic Engineering: “Building a C Compiler with Parallel Claudes” — 16 個 agent 合作建構 C compiler 的實際案例與成本數據 https://www.anthropic.com/engineering/building-c-compiler
[4] SiliconANGLE: “Anthropic Makes Agent Skills an Open Standard” — 報導 Anthropic 開放 Agent Skills 規格 https://siliconangle.com/2025/12/18/anthropic-makes-agent-skills-open-standard/
[5] LangChain: “Choosing the Right Multi-Agent Architecture” — Supervisor pattern(等同 subagent)中通訊只能經過 supervisor https://blog.langchain.com/choosing-the-right-multi-agent-architecture/
[6] Factory.ai: “The Context Window Problem” — Enterprise monorepos 仍然超過 1M token window;naive “stuff everything” 方式不可靠且成本過高 https://factory.ai/news/context-window-problem
支持這個系列
如果這系列文章對你有幫助,考慮請我喝杯咖啡
請我喝杯咖啡
