記事一覧へ
AnthropicがClaude Codeを使うようなClaudeの使い方(設計書が漏洩)
Anthropicは今朝、Claude Codeのソースコード全体を誤って公開しました。51万2千行が、外部に出るはずのなかった単一のデバッグファイルに入っていました。
午後までにコードはインターネット中にコピーされました。そして埋もれていたコードの中に、誰かが完全に機能するバーチャルペットシステムを発見しました。18種、シャイニーバリアント、レアリティのティア分け。これがあなたのAIツールを作っている人たちです。
リークから得られた5つの重要な教訓:
I. 制約優先のプロンプティング
AnthropicがClaudeに内部指示を与える際、すべてのやり取りは3つの層で構造化されています:
- 使うツール: 「ファイルリーダーを使ってこのファイルを読む。他のコマンドは実行しない」
- フラグを立てるリスク: 「この操作でデータが削除される場合は、先に確認する」
- 出力の形式: 「最初に結論を述べ、次に推論を説明する」
それだけです。3つの層。ツール、リスク、フォーマット。
制約なし: 「製品ローンチについてLinkedInの投稿を書いて」
制約あり: 「SaaS製品ローンチのLinkedIn投稿を書いて。150文字以内。特定の顧客の成果から始める。ハッシュタグなし。絵文字なし。コメントを促す質問で終わる」
制約なきプロンプトは制約なき凡庸さを生み出します。
II. ダンプではなくインデックスを使う
Claude Codeのメモリシステム: 各メモは150文字以内、メモリファイル全体は200行以内。目次として機能し、日記としてではありません。詳細が必要なとき、特定のトピックファイルへのポインタを辿ります。
彼らが「コンテキストエントロピー」と呼ぶ問題: 会話が長くなるにつれ、AIは何が重要かを見失います。
解決策: 積極的に圧縮する。自動的に作動する3段階の圧縮。最も積極的なレベル: 最近のファイル、アクティブな計画、圧縮された要約以外すべてを捨てます。約3万5千語のヘッドルームがあります。
実践的なポイント: ドキュメント全体を貼り付けるのをやめましょう。圧縮した要約を渡しましょう。短い箇条書き。決定事項1つにつき1行。
III. 一つの会話ですべてを求めるのをやめる
「コーディネーターモード」: 1つのClaudeがマネージャーとして機能し、タスクを分割し、それぞれを集中したコンテキストを持つ別々のワーカーに割り当て、結果を読んで統合します。
コーディネーターのプロンプトにはこんな一文があります: 「『あなたの調査結果に基づいて』とは言わないでください。実際の調査結果を読んで、何をすべきか正確に指定してください」
これはテクニカルなセットアップなしで使えます: リサーチ、計画、実行のために別々の会話を使いましょう。1つのセッションから次のセッションへは、会話全体ではなく重要な発見(のみ)をコピーします。
IV. Claudeは文字通り「夢を見る」
バックグラウンドプロセス「autoDream」: アイドル時間中に、プロジェクトについて学んだすべてを見直してメモリをクリーンアップします。
受け取る指示: 「あなたは夢を見ています、メモリファイルの振り返りパスを実行しています。最近学んだことを耐久性のある、よく整理されたメモリに統合し、将来のセッションが素早く方向を掴めるようにしてください」
4段階: 既知のことをスキャン → 新情報を確認 → 矛盾をマージ/修正 → 古いものを整理
これは手動でも実行できます。
claude-setupharness-designai-thinking
Anthropic流のClaude活用法がリークから判明
♥ 76↻ 8🔖 195👁 25,000
原文を表示 / Show original
How to use Claude like Anthropic does (they leaked the blueprint)
Anthropic accidentally published the entire source code of Claude Code this morning. All 512,000 lines of it, sitting in a single debugging file that was never supposed to leave the building.
By afternoon, the code was copied across the internet. And buried inside, someone found a fully functional virtual pet system. 18 species. Shiny variants. Rarity tiers. That's who builds your AI tools.
FIVE KEY LESSONS FROM THE LEAK:
I. CONSTRAINT-FIRST PROMPTING
When Anthropic gives Claude instructions internally, every interaction is structured around three layers:
- What tools to use: "Read this file using the file reader. Do not run any other commands."
- What risks to flag: "If this action would delete data, stop and confirm first."
- What the output should look like: "Give the conclusion first. Then explain your reasoning."
That's it. Three layers. Tool, risk, format.
Loose: "Write me a LinkedIn post about our product launch."
Constrained: "Write a LinkedIn post about our SaaS product launch. 150 words max. Open with a specific customer result. No hashtags. No emojis. End with a question to drive comments."
Unbounded prompts produce unbounded mediocrity.
II. USE AN INDEX, NOT A DUMP
Claude Code memory system: each note kept under 150 characters, entire memory file stays below 200 lines. It works like a table of contents, not a journal. When Claude needs more detail, it follows a pointer to a specific topic file.
They call the problem: "Context Entropy." As a conversation grows longer, the AI loses track of what matters.
Their solution: compress aggressively. Three levels of compression that kick in automatically. Most aggressive level: throws away everything except most recent files, active plans, and a compressed summary. About 35,000 words of headroom.
Practical takeaway: stop pasting entire documents. Give compressed summaries. Short bullet points. One line per decision.
III. STOP ASKING FOR EVERYTHING IN ONE CONVERSATION
"Coordinator Mode": One Claude acts as manager, breaks task into pieces, assigns each to a separate worker with focused context, reads results and synthesizes.
The coordinator prompt has a line: "Do NOT say 'based on your findings.' Read the actual findings and specify exactly what to do."
You can use this without technical setup: separate conversations for research, planning, execution. Copy key findings (not entire conversation) from one session to the next.
IV. CLAUDE LITERALLY DREAMS
Background process: "autoDream." During idle time, it reviews everything learned about your project and cleans up memory.
The instruction it receives:
"You are performing a dream, a reflective pass over your memory files. Synthesize what you've learned recently into durable, well-organized memories so that future sessions can orient quickly."
Four phases: scan what's known → check new info → merge/fix contradictions → prune outdated.
You can do this manually: at the end of any long session, type:
"Summarize this session. What decisions did we make? What's still unresolved? What context would a fresh conversation need to continue where we left off?"
Save that output. Paste it at the start of your next session.
V. THE PROTOCOL
1. Start every session with compressed context block. Under 150 characters per point.
2. Constraint-First Prompting: specify tool + risk + format for every request.
3. One task per prompt. Anthropic built 40+ individual tools, each for exactly one thing.
4. Plan before executing: "Don't write anything yet. First, outline your approach and let me review it."
5. Run a dream pass at end of long sessions.
6. Verify everything. Anthropic's internal testing shows their latest model gets things wrong 29-30% of the time. Nearly one in three claims has an error. That's why they built verification into every layer.
The gap between knowing how to use AI and actually using it well is where all the edge lives.