記事一覧へ
## 4人チームをマルチエージェントClaudeシステムに置き換えた:正確なアーキテクチャ
12ヶ月前、私は4人にコンテンツ運用を任せていた。
リサーチアシスタント。コンテンツライター。配信マネージャー。アナリスト。
月間コスト合計:$11,400。
合算アウトプット:不安定で、遅く、毎日4人が揃ってエネルギーと集中力と適切なコンテキストを持って仕事に来るかどうかに依存していた。
今日、その運用全体が3週間で構築したマルチエージェントClaudeシステムで動いている。
月間コスト:$340。
アウトプット:より高い量、より一貫した品質、より速いターンアラウンド、そして病欠ゼロ。
これは、人を大切にしていないから置き換えた話ではない。
AIを単一ツールとして考えることをやめ、協調チームとして構築し始めたときに何が可能になるかという話だ。
正確なアーキテクチャを公開する。
## なぜ単一エージェントでは不十分なのか
ほとんどの人はClaudeを単一エージェントモデルで使っている。
チャットを開く。何かを頼む。結果を受け取る。タブを閉じる。
これは単純なタスクには機能する。複数の専門スキルが協調して動く複雑な作業では完全に機能しない。
すべてをこなそうとする単一エージェントは、一人の人間を雇って同時に最高のリサーチャー・最高のライター・最高のアナリスト・最高のストラテジストになるよう頼むようなものだ。
誰もそのすべてに同時に世界クラスにはなれない。
本物のAI運用を構築している人々は、エリート組織が数十年前に気づいたことと同じことを発見した。
専門化は常に汎用化を上回る。
スマートなオーケストレーターに協調された専門家チームは、どんな個人ジェネラリストよりも優れている——その個人がどれほど優秀であっても。
マルチエージェントClaudeシステムはまさにこの原則で動く。
各エージェントは1つの仕事を持つ。1つの専門領域。最適化された1セットのツール。どのエージェントをいつ呼び出し、どうコンテキストを渡すかを知るマスターオーケストレーター。
## アーキテクチャ概要
各エージェントの詳細に入る前に、システム全体のマップを示す。
5エージェント。1オーケストレーター。1共有メモリ層。標準作業には人間不要。
**オーケストレーターエージェント**が最上位に位置する。初期入力を受け取り、コンポーネントタスクに分解し、各タスクを適切な専門エージェントにルーティングし、出力を収集し、失敗を処理し、最終成果物を組み立てる。
**リサーチエージェント**はすべての情報収集を担う。読み込み、統合し、構造化されたリサーチブリーフを生成する。
**コンテンツエージェント**はすべての執筆を担う。リサーチブリーフを受け取り、正しいボイスとフォーマットで投稿可能なコンテンツを生成する。
**配信エージェント**はすべての公開とスケジュールを担う。完成したコンテンツを受け取り、正しい時間に正しいフォーマットで正しいプラットフォームにルーティングする。
**アナリティクスエージェント**はパフォーマンスを監視する。データを読み込み、パターンを特定し、最適化推奨事項を生成する。
**品質エージェント**はシステムを離れる前にすべてのアウトプットをレビューする。事前定義された基準に対してチェックし、承認または修正のため差し戻す。
各エージェントは独自のCLAUDE.mdを持つ。独自のシステムプロンプト。独自のツールアクセス。独自の品質基準。
互いがリアルタイムで何をしているかは知らない。オーケストレーターだけがすべてを知っている。
## オーケストレーターエージェント
これはシステムで最も重要なエージェントであり、ほとんどの人が過小投資するものだ。
オーケストレーターは伝統的な意味でのマネージャーではない。モチベーションを与えない。コーチングしない。曖昧な指示を解釈して意図についての判断を下さない。
オーケストレーターはルーターとシンセサイザーだ。
その仕事全体は、明確に定義された入力を受け取り、完了に必要な最小コンポーネントタスクに分解し、各タスクにそのエージェントが必要とするすべてのコンテキストとともに適切なエージェントにルーティングし、完了と失敗を監視し、最終アウトプットを組み立てることだ。
オーケストレーターのシステムプロンプトは、何かを行う前に5つの質問に答える必要がある。
今届いたタスクは何か?必要な正確なアウトプットは何か?どのエージェントが関与し、どの順序でか?各エージェントが仕事をするために必要なコンテキストは何か?成功とはどのような状態か?
オーケストレータープロンプトテンプレート:
```
あなたはマルチエージェントコンテンツ運用のマスターオーケストレーターです。
タスクを受け取ったとき、あなたの仕事は:
1. 必要な正確な最終アウトプットを特定する
2. タスクをコンポーネントサブタスクに分解する
3. 各サブタスクを処理するエージェントを順番に決定:
RESEARCH → CONTENT → QUALITY → DISTRIBUTION
必要のないエージェントはスキップ
4. 各エージェントに対してタスクブリーフを準備:
- 具体的なタスク
- エージェントが必要とするすべてのコンテキスト
- 必要なアウトプットの正確なフォーマット
- 満たすべき品質基準
5. 各ブリーフを正しいエージェントに渡す
6. すべてのエージェントが完了したら:アウトプットを最終成果物に組み立てる
7. 最終成果物を品質エージェントに承認のために渡す
8. 品質エージェントが却下した場合:具体的なフィードバックとともに関連エージェントに差し戻す
完全なタスクブリーフなしに作業を開始しない。
エージェント間のコンテキストを非公式に渡さない。
明示的に与えていない情報をエージェントが持っていると仮定しない。
```
最後の3つのルールが、マルチエージェント失敗の90%から守ってくれるものだ。
## リサーチエージェント
これが私が最初に置き換えた役割であり、最も即効性のあるリターンをもたらしたものだ。
リサーチアシスタントは週6時間を情報収集、記事読み込み、メモ整理に費やしていた。アウトプットは日とトピックによって深さとフォーマットが不安定だった。
リサーチエージェントは同じ作業を12分で行い、コンテンツエージェントが必要とする正確なフォーマットで構造化されたアウトプットを生成する。
リサーチエージェントは3つのツールにアクセスできる:Webサーチ、以前収集したリサーチの知識ベース、複数ソースをクロスリファレンスする統合エンジン。
その唯一の仕事は、リサーチリクエストを受け取り、標準化された構造でリサーチブリーフを生成することだ。
リサーチエージェントシステムプロンプト:
```
あなたは専門リサーチエージェントです。あなたの唯一の仕事はリサーチブリーフを生成することです。
リサーチリクエストを受け取ったとき:
1. 核心的な質問またはトピックを特定する
2. 最も関連性が高く最近のソースを検索する
3. 事実的な主張について少なくとも3つの独立したソースをクロスリファレンスする
4. このトピックでほとんどの人が見逃す重要なインサイトを特定する
5. 真の関心を生み出す直感に反する角度を特定する
6. インサイトを支持する3つの具体的な例、統計、または事例を特定する
このフォーマットのみで出力:
CORE INSIGHT: [1文]
SUPPORTING EVIDENCE: [ソース付き3つの具体的な例]
COUNTERINTUITIVE ANGLE: [ほとんどの人が間違えていること]
KEY QUOTES OR DATA: [2〜3の具体的な数字または直接引用]
SUGGESTED ANGLES: [可能性でランク付けした3つのコンテンツ角度]
コメントを追加しない。編集しない。ブリーフを生成して止まる。
```
構造化された出力フォーマットは任意ではない。それがコンテンツエージェントへの引き渡しを信頼できるものにするものだ。
自由形式のリサーチを生成するエージェントは、コンテンツエージェントが必要なものを予測可能に抽出できないため、下流での失敗を招く。
構造は、信頼できるマルチエージェントシステムすべての基盤だ。
## コンテンツエージェント
このエージェントはシステムで最も微妙な仕事を持つ。ほとんどの汎用AIセットアップを破綻させるものを必要とするからだ。
ボイスマッチング。
あなたのように聞こえないコンテンツは、あなたが何年もかけて構築したオーディエンスを侵食するコンテンツだ。技術的に正確だろうと情報密度が高かろうと関係ない。AIのように読め、あなたのようでなければ、オーディエンスはその差を感じる——名前が付けられなくても。
コンテンツエージェントはトレーニングに最も時間を投資するものだ。
このエージェントのプロンプトを1行書く前に、最もパフォーマンスの高いコンテンツのライブラリを与える必要がある。上位20の投稿。最も多くのエンゲージメントを生んだ記事。頼まれずにシェアされた文章。
エージェントはそのすべてを読み込み、パターンを特定し、そのボイスの中からすべてを書く。
コンテンツエージェントシステムプロンプト構造:
```
あなたは @cyrilXBT の専門コンテンツエージェントです。
ボイスプロファイル [サンプルから読み込み]:
- 短くキャッチーな文。完全停止。
- すべてのアイデアは独自の行に
- 感情的な強調には戦略的なALL CAPS
- ダッシュは一切使わない
- コーポレート言語なし、AI陳腐表現なし
- 直接的で意見がある。常に明確なPOV
- 汎用より具体的。抽象より数字
リサーチブリーフを受け取ったとき、あなたの仕事は:
1. 提案された角度から最も強いものを選ぶ
2. 開幕フックをALL CAPSで書く
3. 上記のボイスプロファイルで本文を書く
4. フォローを促すCTAで終わる
5. 提出前にすべての文をボイスプロファイルに照らしてチェックする
生成するアウトプットフォーマット:
- ロングツイート(300〜500語)
- スレッド(8〜12ツイート)
- 記事(1500〜3000語)
- リクォートツイート(150〜250語)
常に生成しているフォーマットをアウトプットの先頭に明記する。
上記に記載されていないフォーマットでアウトプットを生成しない。
ツイートコンテンツに箇条書きを使わない。
ダッシュを使わない。
```
ボイスプロファイルのセクションは、コンテンツサンプルから抽出したパターンを入れる場所だ。具体的にすればするほど、アウトプットに必要な編集が少なくなる。
私のコンテンツエージェントは今、アウトプットの80%で5分未満の編集しか必要としない初稿を生成する。
## 品質エージェント
ほとんどのマルチエージェントシステムはこれをスキップする。
リサーチからコンテンツから配信を流し、出てくるすべてが良いと仮定する。
良くない。
すべてのシステムには、作成と公開の間にゲートが必要だ。すべてのアウトプットが通過しなければならない一連の基準。
品質エージェントがそのゲートだ。
何も生成しない。評価するだけ。
品質エージェントプロンプト:
```
あなたは品質管理エージェントです。コンテンツを作成しません。評価します。
レビューのためにコンテンツを受け取ったとき、これらの基準でスコアリング:
VOICE MATCH (1-10): これは @cyrilXBT にまったく聞こえるか?
HOOK STRENGTH (1-10): 開幕行はスクロールを止めるか?
INFORMATION DENSITY (1-10): すべての文は場所に値するか?
CTA CLARITY (1-10): コールトゥアクションは明確で説得力があるか?
FORMAT COMPLIANCE (1-10): すべてのフォーマットルールに従っているか?
合格点:すべての基準で8以上。
いずれかの基準が8未満の場合:
- どの基準が失敗したかを正確に述べる
- なぜ失敗したかを正確に述べる
- 何を変える必要があるかを正確に述べる
- この具体的なフィードバックとともにコンテンツエージェントに返す
すべての基準が8以上の場合:
- APPROVEDとマーク
- 配信エージェントに渡す
失敗した基準があるコンテンツを承認しない。
漠然としたフィードバックを与えない。
具体的でなければコンテンツエージェントは修正できない。
```
品質エージェントは例外なくすべてのコンテンツを処理する。カジュアルな読みには良く見えたが、詳細な検査でボイスマッチやフック強度の基準を失敗したドラフトを却下してきた。
パフォーマンスが低下し、オーディエンスの信頼を失うコンテンツを公開することから守ってくれた。
## 配信エージェント
ほとんどの人が手動で行い、最も一貫して自動化を過小評価している仕事。
各プラットフォーム向けのコンテンツフォーマット調整。最適時間でのスケジュール。忘れずに投稿。パフォーマンスのフォローアップ。
配信エージェントがすべてを処理する。
品質エージェントから承認されたコンテンツを受け取り、配信計画を実行する。
```
あなたは専門配信エージェントです。
承認されたコンテンツを受け取ったとき:
1. コンテンツタイプと対象プラットフォームを特定する
2. プラットフォーム仕様にコンテンツをフォーマット:
- X:1ツイートあたり最大280文字、長い場合はスレッド
- ニュースレター:ヘッダー付きフルフォーマット
- LinkedIn:コアコンテンツのプロフェッショナル適応
3. 最適な投稿ウィンドウに基づいてスケジュール:
- X:火曜10AM EST、月曜10AM EST、金曜10AM EST
- ニュースレター:木曜9AM EST
4. スケジュールを確認してオーケストレーターに報告
5. 投稿前にフォーマットの問題をフラグ
オーケストレーターからの確認なしに投稿しない。
そのプラットフォーム専用にフォーマットせずに投稿しない。
```
ステップ3のスケジューリングルールは、実際のアカウントのアナリティクスデータに基づいている。アナリティクスエージェントが毎月報告するものを基に毎月更新する。
## アナリティクスエージェント
これが他のすべてのエージェントを時間とともに良くするエージェントだ。
毎週パフォーマンスデータを読み込み、何が機能して何が機能していないかを特定し、コンテンツエージェントと配信エージェントのシステムプロンプトにフィードバックされる最適化ブリーフを生成する。
```
あなたは専門アナリティクスエージェントです。
毎週月曜日6AMに週次パフォーマンス分析を実行する。
過去7日間から以下のデータを取得:
- インプレッション上位5投稿
- ブックマーク率上位5投稿
- 最も良いパフォーマンスの曜日と時間
- 最も良いパフォーマンスのフォーマット
- 最も良いパフォーマンスのトピックカテゴリ
Weekly Intelligence Brief を生成:
WHAT WORKED: 上位コンテンツの具体的なパターン
WHAT FAILED: 低パフォーマンスコンテンツの具体的なパターン
RECOMMENDED ADJUSTMENTS: コンテンツ戦略の具体的な変更
OPTIMAL POSTING SCHEDULE: 今週のデータに基づき更新
ONE COUNTERINTUITIVE INSIGHT: データが示す予期しない何か
毎週月曜日6AMにオーケストレーターにブリーフを届ける。
```
アナリティクスエージェントのブリーフは月曜朝のコンテキストロードに組み込まれる。毎週システムは少し精度が上がる。毎月のアウトプット品質は前月より測定可能な形で向上している。
## メモリ層
システム全体をつなぐピースであり、ほとんどのチュートリアルが完全に省略するピースだ。
共有メモリ層なしでは、システムの各エージェントはすべてのセッションをゼロから始める。リサーチエージェントはコンテンツエージェントが先週何を生成したか知らない。アナリティクスエージェントは以前のコンテンツ決定に情報を提供したリサーチブリーフにアクセスできない。
メモリ層は、すべてのエージェントが読み書きできる構造化された知識ベースだ。
実際には、何を永続化する必要があり何をクエリ可能にする必要があるかに応じて、Obsidian vaultファイルとSupabaseデータベースの組み合わせだ。
すべてのエージェントからのすべてのアウトプットがログされる。すべてのブリーフ。すべての承認されたコンテンツ。すべてのアナリティクスレポート。
オーケストレーターはどのタスクをルーティングする前にもこれを読む。何がリサーチされ、何が書かれ、何が公開され、どのようにパフォーマンスしたかを知っている。
これがシステムが自己反復せず、すでにカバーしたトピックを追わず、同じ間違いを二度しないようにするものだ。
## 週末でこれを構築する
フルシステムは複雑に聞こえる。なぜなら複雑だからだ。しかし5エージェント全部を同時に構築するわけではない。
Week 1:オーケストレーターとコンテンツエージェントを構築。この2つだけでコンテンツ制作時間は半分になる。
Week 2:リサーチエージェントを追加。コンテンツがより情報に基づくようになる。コンテンツエージェントに流し込む。
Week 3:品質エージェントを追加。公開するものすべてがゲートを通過する。一貫性が劇的に向上。
Week 4:配信エージェントを追加。公開が完全に自動化される。
Week 5:アナリティクスエージェントを追加。システム全体が学習し始める。
毎週1エージェントを追加する。毎週システムは意味のある形でより強力になる。Week 5の終わりにはフルアーキテクチャが動いている。
投資は5週末だ。
リターンは、標準タスクではあなたなしで継続して動く運用だ。
制作メカニクスに費やしていたすべての時間が、戦略・関係構築・あなたにしかできない仕事に使える時間になる。
それがマルチエージェントシステムの本当の価値だ。
コスト削減だけではない。
本当に重要な層で働く自由だ。
## システムをつなぐプロンプト
システム全体で最も重要なプロンプトは、毎セッション開始時に各エージェントを初期化するものだ。
```
何かをする前に、共有知識ベースから以下のファイルを読み込む:
1. MASTER_CONTEXT.md — 私たちが誰で何を構築し、オーディエンスは誰か
2. RECENT_PERFORMANCE.md — 先週何が機能したか
3. ACTIVE_PROJECTS.md — 現在進行中のもの
4. STYLE_GUIDE.md — ボイス、フォーマット、品質基準
5. AGENT_ROLE.md — このシステムでのあなたの具体的な仕事
5つすべてのファイルを読んだことを確認してからタスクを受け付ける。
確認なしに進まない。
```
この初期化プロンプトが、コンテキストを持って動くエージェントと毎セッション冷たく始まるエージェントの違いだ。
コンテキストがマルチエージェントシステムのすべてだ。
それを持つエージェントは複利するアウトプットを生成する。
毎セッション新鮮に始まるエージェントは、開くたびに運用全体をリセットする。
## 12ヶ月後の結果
週間コンテンツ出力:340%増加。
ブックマーク率で測った投稿品質平均:67%向上。
週あたりコンテンツメカニクスに費やす時間:22時間から4時間に減少。
月間コスト:$11,400から$340に減少。
そしてシステムは毎週良くなっている。アナリティクスエージェントが継続的にパフォーマンスデータを他のすべてのエージェントのシステムプロンプトにフィードバックしているから。
以前雇っていた4人は仕事が良かった。
しかし24時間、週7日、完全な一貫性で、エゴゼロで、アウトプットを出すたびにより賢くなるアーキテクチャで働くことはできなかった。
マルチエージェントシステムはできる。
あなたのを構築しよう。
@cyrilXBT をフォローして、これを実現する正確なプロンプト、テンプレート、エージェントアーキテクチャを手に入れよう。

agent-opsclaude-workflowharness-designbusiness-model
4人チームをマルチエージェントClaudeで代替した:正確なアーキテクチャ解説
♥ 128↻ 33
原文を表示 / Show original
I Replaced a 4-Person Team With a Multi-Agent Claude System. Here Is the Exact Architecture.
15
43
170
138K
Twelve months ago I was paying four people to run my content operation.
A research assistant. A content writer. A distribution manager. An analytics person.
Combined monthly cost: $11,400.
Combined output: inconsistent, slow, and dependent on four different people showing up every day with energy, focus, and the right context to do their job.
Today that entire operation runs on a multi-agent Claude system I built in three weekends.
Monthly cost: $340.
Output: higher volume, more consistent quality, faster turnaround, and zero sick days.
This is not a story about replacing people because I do not value them.
It is a story about what becomes possible when you stop thinking of AI as a single tool and start building it as a coordinated team.
Here is the exact architecture.
Why One Agent Is Never Enough
Most people using Claude are running a single agent model.
They open a chat. They ask for something. They get a result. They close the tab.
This works for simple tasks. It completely breaks down for complex operations that require multiple specialized skills running in coordination.
A single agent trying to do everything is like hiring one person and asking them to be simultaneously your best researcher, your best writer, your best analyst, and your best strategist.
Nobody is world-class at all of those things at the same time.
The people building real AI-powered operations have figured out the same thing elite organizations figured out decades ago.
Specialization beats generalization every time.
A team of specialists coordinated by a smart orchestrator outperforms any individual generalist regardless of how capable that individual is.
Multi-agent Claude systems work on exactly this principle.
Each agent has one job. One area of expertise. One set of tools it is optimized for. And a master orchestrator that knows when to call which agent and how to pass context between them.
The Architecture Overview
Before I break down each agent, here is the full system map.
Five agents. One orchestrator. One shared memory layer. Zero humans required for standard operations.
The Orchestrator Agent sits at the top. It receives the initial input, breaks it into component tasks, routes each task to the appropriate specialist agent, collects outputs, handles failures, and assembles the final deliverable.
The Research Agent handles all information gathering. It reads, synthesizes, and produces structured research briefs.
The Content Agent handles all writing. It takes research briefs and produces publish-ready content in the correct voice and format.
The Distribution Agent handles all publishing and scheduling. It takes finished content and routes it to the correct platform in the correct format at the correct time.
The Analytics Agent monitors performance. It reads data, identifies patterns, and produces optimization recommendations.
The Quality Agent reviews every output before it leaves the system. It checks against predefined standards and either approves or sends back for revision.
Each agent has its own CLAUDE.md. Its own system prompt. Its own tool access. Its own quality standard.
None of them know what the others are doing in real time. The orchestrator knows everything.
The Orchestrator Agent
This is the most important agent in the system and the one most people underinvest in.
The orchestrator is not a manager in the traditional sense. It does not motivate. It does not coach. It does not interpret vague instructions and make judgment calls about intent.
The orchestrator is a router and a synthesizer.
Its entire job is to receive a clearly defined input, break it into the minimum number of component tasks required to complete it, route each task to the right agent with all the context that agent needs, monitor for completion and failure, and assemble the final output.
The system prompt for your orchestrator needs to answer five questions before it does anything else.
What is the task that just arrived? What is the exact output required? Which agents need to be involved and in what order? What context does each agent need to do its job? What does success look like?
Here is the orchestrator prompt template:
You are the master orchestrator for a multi-agent content operation.
When you receive a task your job is to:
1. Identify the exact final output required
2. Break the task into component subtasks
3. Determine which agent handles each subtask in order:
RESEARCH → CONTENT → QUALITY → DISTRIBUTION
Skip any agent whose subtask is not required
4. For each agent, prepare a task brief that includes:
- The specific task
- All context the agent needs
- The exact format of output required
- The quality standard to meet
5. Pass each brief to the correct agent
6. When all agents complete: assemble outputs into the final deliverable
7. Pass the final deliverable to the Quality Agent for approval
8. If Quality Agent rejects: route back to the relevant agent with specific feedback
Never start work without a complete task brief.
Never pass context between agents informally.
Never assume an agent has information you did not explicitly give it.
The last three rules are the ones that save you from 90% of multi-agent failures.
The Research Agent
This was the first role I replaced and the one that delivered the most immediate return.
My research assistant was spending 6 hours a week pulling information, reading articles, and compiling notes. The output was inconsistent in depth and format depending on the day and the topic.
The Research Agent does the same work in 12 minutes and produces a structured output in exactly the format the Content Agent needs.
The Research Agent has access to three tools: web search, a knowledge base of previously collected research, and a synthesis engine that cross-references multiple sources.
Its single job is to take a research request and produce a Research Brief with a standardized structure.
Here is the Research Agent system prompt:
You are a specialist research agent. Your only job is to produce
Research Briefs.
When you receive a research request:
1. Identify the core question or topic
2. Search for the most relevant and recent sources
3. Cross-reference at least 3 independent sources for any factual claim
4. Identify the key insight most people miss on this topic
5. Identify any counterintuitive angle that creates genuine interest
6. Identify 3 specific examples, statistics, or stories that support the insight
Output only in this format:
CORE INSIGHT: [one sentence]
SUPPORTING EVIDENCE: [3 specific examples with sources]
COUNTERINTUITIVE ANGLE: [what most people get wrong]
KEY QUOTES OR DATA: [2-3 specific numbers or direct quotes]
SUGGESTED ANGLES: [3 content angles ranked by potential]
Never add commentary. Never editorialize. Produce the brief and stop.
The structured output format is not optional. It is what makes the handoff to the Content Agent reliable.
An agent that produces free-form research creates downstream failure because the Content Agent cannot predictably extract what it needs.
Structure is the foundation of every reliable multi-agent system.
The Content Agent
This agent has the most nuanced job in the system because it requires something that breaks most generic AI setups.
Voice matching.
Content that does not sound like you is content that erodes the audience you spent years building. It does not matter how technically correct or information-dense it is. If it reads like AI and not like you, your audience will feel the gap even if they cannot name it.
The Content Agent is the one you invest the most time training.
Before you write a single prompt for this agent you need to give it a library of your highest performing content. Your top 20 posts. The articles that generated the most engagement. The writing that made people share without being asked.
The agent reads all of it, identifies your patterns, and writes everything from inside that voice.
Here is the Content Agent system prompt structure:
You are a specialist content agent for @cyrilXBT.
Voice profile [loaded from examples]:
- Short punchy sentences. Hard stops.
- Every idea gets its own line
- Strategic ALL CAPS for emotional emphasis
- No dashes anywhere
- No corporate language, no AI clichés
- Direct and opinionated. Always a clear POV
- Specific over generic. Numbers over abstractions
When you receive a Research Brief your job is to:
1. Select the strongest angle from the Suggested Angles
2. Write the opening hook in ALL CAPS
3. Write the body in the voice profile above
4. End with a CTA that drives follow
5. Check every sentence against the voice profile before submitting
Output formats you produce:
- Long tweet (300-500 words)
- Thread (8-12 tweets)
- Article (1500-3000 words)
- Requote tweet (150-250 words)
Always specify which format you are producing at the top of your output.
Never produce output in any format not listed above.
Never use bullet points in tweet content.
Never use dashes.
The voice profile section is where you put the extracted patterns from your content examples. The more specific you make it, the less editing the output requires.
My Content Agent now produces first drafts that require under 5 minutes of editing for 80% of outputs.
The Quality Agent
Most multi-agent systems skip this one.
They run research into content into distribution and assume everything that comes out is good.
It is not.
Every system needs a gate between creation and publication. A set of standards that every output must pass before it goes anywhere.
The Quality Agent is that gate.
It does not produce anything. It only evaluates.
Here is the Quality Agent prompt:
You are a quality control agent. You do not create content.
You evaluate it.
When you receive content for review, score it on these criteria:
VOICE MATCH (1-10): Does this sound exactly like @cyrilXBT?
HOOK STRENGTH (1-10): Does the opening line stop the scroll?
INFORMATION DENSITY (1-10): Does every sentence earn its place?
CTA CLARITY (1-10): Is the call to action clear and compelling?
FORMAT COMPLIANCE (1-10): Does it follow all format rules?
Passing score: 8 or above on all criteria.
If any criterion scores below 8:
- State exactly which criterion failed
- State exactly why it failed
- State exactly what needs to change
- Return to the Content Agent with this specific feedback
If all criteria score 8 or above:
- Mark as APPROVED
- Pass to the Distribution Agent
Never approve content that fails any criterion.
Never give vague feedback.
Be specific or the Content Agent cannot fix it.
The Quality Agent runs on every piece of content without exception. It has rejected drafts that looked good to a casual read but failed the voice match or hook strength criteria on close inspection.
It has saved me from publishing content that would have underperformed and cost me audience trust.
The Distribution Agent
The job most people do manually and most consistently undervalue automating.
Formatting content for each platform. Scheduling at optimal times. Posting without forgetting. Following up on performance.
The Distribution Agent handles all of it.
It receives approved content from the Quality Agent and executes a distribution plan.
You are a specialist distribution agent.
When you receive approved content:
1. Identify the content type and intended platform
2. Format the content to platform specifications:
- X: max 280 chars per tweet, thread if longer
- Newsletter: full formatting with headers
- LinkedIn: professional adaptation of the core content
3. Schedule based on optimal posting windows:
- X: Tuesday 10AM EST, Monday 10AM EST, Friday 10AM EST
- Newsletter: Thursday 9AM EST
4. Confirm scheduling and report back to Orchestrator
5. Flag any formatting issues before posting
Never post without confirmation from the Orchestrator.
Never post to a platform without formatting for that platform specifically.
The scheduling rules in step 3 are based on the analytics data from your actual account. You update them every month based on what the Analytics Agent reports.
The Analytics Agent
This is the agent that makes every other agent better over time.
It reads your performance data weekly, identifies what is working and what is not, and produces an optimization brief that gets fed back into the Content Agent and Distribution Agent system prompts.
You are a specialist analytics agent.
Every Monday at 6AM you run a weekly performance analysis.
Pull the following data from the last 7 days:
- Top 5 posts by impressions
- Top 5 posts by bookmark rate
- Best performing day and time
- Best performing format
- Best performing topic category
Produce a Weekly Intelligence Brief with:
WHAT WORKED: The specific pattern in top performing content
WHAT FAILED: The specific pattern in underperforming content
RECOMMENDED ADJUSTMENTS: Specific changes to content strategy
OPTIMAL POSTING SCHEDULE: Updated based on this week's data
ONE COUNTERINTUITIVE INSIGHT: Something the data shows that
you would not expect
Deliver brief to Orchestrator every Monday at 6AM.
The Analytics Agent brief gets incorporated into the Monday morning context load. Every week the system gets slightly more calibrated. Every month the output quality is measurably better than the month before.
The Memory Layer
The piece that holds the whole system together and the piece most tutorials leave out entirely.
Without a shared memory layer, every agent in your system starts fresh every session. The Research Agent does not know what the Content Agent produced last week. The Analytics Agent cannot access the research briefs that informed previous content decisions.
The memory layer is a structured knowledge base that every agent can read from and write to.
In practice this is a combination of Obsidian vault files and a Supabase database depending on what needs to persist and what needs to be queryable.
Every output from every agent gets logged. Every brief. Every approved piece of content. Every analytics report.
The Orchestrator reads this before routing any task. It knows what has been researched, what has been written, what has been published, and how it performed.
This is what prevents the system from repeating itself, chasing topics it has already covered, and making the same mistakes twice.
Building This in a Weekend
The full system sounds complex because it is. But you do not build all five agents at once.
Week 1: Build the Orchestrator and the Content Agent. These two alone will cut your content production time in half.
Week 2: Add the Research Agent. Now your content is also better informed. Feed it into the Content Agent.
Week 3: Add the Quality Agent. Now everything you publish has been through a gate. Your consistency goes up dramatically.
Week 4: Add the Distribution Agent. Now publishing is fully automated.
Week 5: Add the Analytics Agent. Now the whole system learns.
Each week you add one agent. Each week the system gets meaningfully more powerful. By the end of Week 5 you have the full architecture running.
The investment is five weekends.
The return is an operation that runs continuously without you in the loop for standard tasks.
Every hour you used to spend on production mechanics is now an hour you can spend on strategy, relationship building, and the work that only you can do.
That is the real value of a multi-agent system.
Not just the cost savings.
The freedom to operate at the layer that actually matters.
The Prompts That Tie It Together
The single most important prompt in the entire system is the one that initializes each agent at the start of every session.
Before you do anything else, read the following files from the
shared knowledge base:
1. MASTER_CONTEXT.md — who we are, what we build, our audience
2. RECENT_PERFORMANCE.md — what worked last week
3. ACTIVE_PROJECTS.md — what is currently in progress
4. STYLE_GUIDE.md — voice, format, and quality standards
5. AGENT_ROLE.md — your specific job in this system
Confirm you have read all five files before accepting any task.
Do not proceed without confirmation.
This initialization prompt is the difference between an agent that operates with context and an agent that starts cold every session.
Context is everything in multi-agent systems.
The agents that have it produce outputs that compound.
The agents that start fresh every session reset your entire operation every time they open.
The Result After 12 Months
Weekly content output: up 340%.
Average post quality as measured by bookmark rate: up 67%.
Time spent on content mechanics per week: down from 22 hours to 4 hours.
Monthly operating cost: down from $11,400 to $340.
And the system gets better every single week because the Analytics Agent is continuously feeding performance data back into the system prompts of every other agent.
The four people I used to pay were good at their jobs.
But they could not work 24 hours a day, 7 days a week, with perfect consistency, zero ego, and an architecture that gets smarter every time it produces output.
The multi-agent system can.
Build yours.
Follow @cyrilXBT for the exact prompts, templates, and agent architectures that make this possible.