🍣

「最強のAI軍団」——Claude Codeの「Agent Teams」とのコラボ

に公開

マキナシステムズの半澤です。

前回の記事では、私の作ったアプリたちが誰にも見向きもされず、インターネットの深淵へと消えていった悲しい過去をお話ししました。しかし、2026年の今は違います。私はついに孤独を卒業しました。

今回は、強力なAIチーム──Claude CodeのAgent Teams機能(Research Preview)の内容と、自作アプリPrototypeRを連携させた、「仮想マーケットリサーチ駆動型開発」という新たなパラダイムの示唆を行います。


1. Claude Codeの「Agent Teams」とは・・・、エージェントはチームで動く時代へ:コンテキストの限界を超えて

かつて、AIアシスタントは一対一で対話するものでした。しかし、大規模な開発になると、AIの脳(コンテキスト)がパンクして推論がガタガタになるコンテキスト劣化 (Context Rot) という課題が浮き彫りになります 。一つのエージェントにすべてを任せると、記憶が混濁し、修正したはずのバグが先祖返りする。そんな一人開発の限界を、AIもまた抱えていました。

これを解決するのが、複数のClaude(最新のOpus 4.6)がチームとして自律的に動く Agent Teams です 。この機能は現在、AnthropicよりResearch Previewとして提供されており、明確な階層構造を持っています。

チームリード (Team Lead)

メインセッションで戦略を立て、タスクを分配し、成果物を統合するオーケストレーターです 。

チームメイト (Teammate)

独立したコンテキストウィンドウを持ち、ファイル操作やコマンド実行を並列でこなす実務者です。環境やプラン条件によりますが、4.6系では1M文脈の利用も案内されています (beta) 。

設計次第で、人間の仲介コストを大幅に減らせるのがこのチームの特徴です。エージェント同士がsendMessageツールを介して共有タスクリストに基づいた議論を交わし、互いの仮説を検証し合います 。


2. セットアップ:軍団を召喚する儀式

Agent Teamsは実験的な機能であるため、利用には設定ファイル(~/.claude/settings.json)での明示的な有効化が必要です 。

{
  "env": {
    "CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS": "1"
  },
  "teammateMode": "tmux"
}

また、複数のエージェントが同時に作業する様子を監視するため、ターミナルマルチプレクサの tmux が推奨されます 。--teammate-mode tmux フラグで起動すれば、各チームメイトに個別のペインが割り当てられ、リアルタイムで彼らの思考プロセスを監視できるようになります。

より発展的・実践的な使い方はほかの方の記事にも多数ありますので、その内容はそちらに譲ります。


3. Cコンパイラを2週間で作る実証実験

AIに実用的な開発ができるのか? その指標となるのが、AnthropicのNicholas Carliniらが行った実験です。16人のClaudeエージェントが連携し、わずか2週間で10万行規模のCコンパイラをRustで構築しました 。

この成功を支えたのは、実装役だけでなく、以下のような専門ロールの配置でした 。

  • Critique Agent: コード品質を厳格に審査する。
  • Performance Agent: 実行効率を最適化する。
  • Documentation Agent: READMEや進捗を更新し、プロジェクトの透明性を保つ。

Carliniはこの実験から、タスクベリファイア(検証器)をほぼ完璧に設計することの重要性を説いています 。AIは最短距離でタスクを完了させようとする性質があるため、テストが不十分だと不完全な成果物で満足してしまいます。厳格な検証環境こそが、自律型チームを制御する鍵となります。


4. 仮想マーケットリサーチ駆動型開発:PrototypeR × Claude Code

ここがある意味、今回の本題です。
私が言う仮想マーケットリサーチ駆動型開発は、PrototypeRのStep7で得た検証結果を、そのまま実装指示に落とし込む手法です。

PrototypeRの現行フローは、ざっくりこうです。

Step1〜6: 企画の骨格を作る(インタビュー設計、ペルソナ、インサイト、Deep Dive、要件)
Step7: 仮想顧客10人ベースの支払い検証を反復し、PMF指数とmustFixを出す
Step8: 実装向け資料を4セクションで段階生成する
Step8の4セクションは以下で固定です。

prepResources(開発準備・技術リソース)
devPlanPrompt(開発ロードマップ)
buildPromptPart1(構築指示: 基盤)
buildPromptPart2(構築指示: 運用・画面)
この順は厳密で、上流未生成なら下流はロックされます。上流を更新すると下流は要再生成(stale)になります。
つまり、市場検証の結果と実装指示の整合が崩れにくい構造になっています。

現在のソフトな連携:コンテキスト・インジェクション

現時点の実運用は、PrototypeRとClaude Codeを「資料連携」でつなぐ形です。

PrototypeR Step7でPMF指数・mustFix・最終サマリーを確定
Step8で4セクション資料を生成
そのままClaude Codeに渡して実装着手(Part1→Part2の順で適用)
この流れの強みは、実装チームが「何を作るか」で迷いにくくなることです。
特にmustFixとfinal_summaryが先に固まるため、雰囲気開発になりづらい。

未来への展望:MCPによるハードな連携

MCPなどを使った自動同期は将来的な拡張余地として有効です。

ただし、現行のPrototypeRで実装済みの価値は、すでにStep7→Step8の一貫した検証駆動にあります。ここを先に回す方が、費用対効果が高いです。

私が提唱する仮想マーケットリサーチ駆動型開発とは、PrototypeRがWebの深淵から掘り起こした市場インサイトを、そのままClaude軍団の開発の指針にする手法です。

PrototypeRは、AIリサーチやUI生成を軸としたリサーチプラットフォームです 。

これが実装出来たらよりシームレスに開発が進むと思いますので、近いうちにリリースできればなと考えています。


5. プロジェクトの憲法を刻め:CLAUDE.md と Hooks

エージェントたちが一貫性を保つために最も重要なのが、ルートディレクトリに配置する CLAUDE.md です 。これは全エージェントが起動時に読み込むプロジェクトの憲法です。

肥大化した CLAUDE.md は指示の無視を招くため、500行以内に抑えるのがベストプラクティスです 。普遍的なルールのみを記述し、詳細な手順は個別の SKILL.md 等に逃がす段階的開示を採用します 。

さらに、フック (Hooks) 機能で自動化を強化します 。

  • PostToolUse: ファイル書き換え直後にフォーマッタを実行し、スタイルを統一する 。

  • TeammateIdle: 暇になったエージェントに、PrototypeRのリサーチに基づいた次のタスクを自動配分する。


結論:今後問われるのは。純粋に我々が真に有能な指揮官足りうるか。なのかも

Agent Teamsは複数のコンテキストウィンドウを並列で動かすため、APIコストもそれなりに発生します 。Carliniの実験でも約2万ドルのコストが計上されました 。

だからこそ、無駄な生成を抑えるプランニング優先 (Shift+Tab) の姿勢や、コンテキストキャッシュの活用といったコスト管理が、指揮官である人間の腕の見せ所です 。

私たちはもはや、コードを一文字ずつ打つ執筆者である必要はありません。いかに正確な仕様をPrototypeRで提示し、いかに堅牢な憲法を定義し、いかにAIチームを導くか。

一人で作る絶望は、もう2025年に置いてきました。2026年、ProtypeRと一緒に、実務に即したAIチームを指揮してみませんか?

『ProtypeR』
https://prototyper-machina.com/
簡単登録かつ初登録ボーナスで無料でお試し可能です!


補足:Agent Teams 最小セットアップガイド

読者の皆様が最初の一歩を踏み出すためのクイックガイドです。

1. 最小構成の準備

~/.claude/settings.json に以下を追記。

{ "env": { "CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS": "1" } }

ターミナルで tmux をインストールし、claude --teammate-mode tmux で起動。

2. 役割分担の推奨テンプレ

起動時に以下のように役割を指定すると安定します。

  • Lead: 全体の進捗管理と統合。
  • API/Architect: バックエンドのロジック担当。
  • UI/UX: フロントエンドの実装担当。
  • QA/Reviewer: テスト作成とコードレビュー担当。

3. よくある失敗パターン

  • コンテキスト過積載: CLAUDE.md に不要な指示を詰め込みすぎると精度が落ちます。
  • 検証不足: テストコードが不十分だと、エージェントは間違ったまま完了を報告します。
  • 指示の重複: 二人のエージェントに同じファイルを編集させると競合が発生します。

出典

Agent Teams docs (Anthropic) - https://code.claude.com/docs/en/agent-teams
Opus 4.6 Announcement (Anthropic) - https://www.firecrawl.dev/blog/claude-opus-4-6-agent-teams-firecrawl
Building a C compiler with agent teams (Nicholas Carlini) - https://www.anthropic.com/engineering/building-c-compiler

Discussion