記事一覧へ
Noisy
@noisyb0y1
Googleのエンジニアが、Claude Codeで仕事の80%を自動化しました。彼が構築した具体的なシステムを紹介します。
30
177
1.2K
2.3M
11年の経験を持つGoogleエンジニアが、Claude Codeとシンプルなdotnetアプリを使って仕事の80%を自動化しました。
今では1日2〜3時間だけ働き、システムが自走する残り時間は休憩しながら、月$28,000のパッシブインカムを得ています。
彼が知っていて、あなたが知らないことを紹介します。
## Part 1 - KarpathyルールによるCLAUDE.md
Andrej Karpathy——世界で最も影響力あるAI研究者の1人——は、LLMがコードを書く際に犯す最も一般的なミスをまとめました:過度な設計、既存パターンの無視、誰も求めていない依存関係の追加。
誰かがこれらの観察を1つのCLAUDE.mdファイルに変換しました。
結果——1週間でGitHubで15,000スターを獲得、1万5,000人の人生が変わったと言えます。
アイデアはシンプルです:ミスが予測可能なら——正しい指示でそれを防ぐことができます。リポジトリ内の1つのマークダウンファイルが、プロジェクト全体のClaude Codeの行動に構造化されたルールセットを与えます。
中にある4つの原則:
```
コーディング前に考える → 間違った仮定と見落とされたトレードオフを防ぐ
シンプルさ優先 → 過度な設計と膨張した抽象化を防ぐ
外科的な変更 → 誰も触れとは言っていないコードを触るのを防ぐ
目標駆動の実行 → まずテスト、成功基準の検証
```
フレームワークなし。複雑なツールなし。プロジェクトレベルでClaudeの行動を変える1つのファイル。
実際の違い:
```
CLAUDE.mdなし: Claudeは約40%のケースで慣例を破る
Karpathy CLAUDE.mdあり: 違反は約3%に低下
セットアップ時間: 5分
```
自分のCLAUDE.mdを自動生成するコマンド:
```python
claude -p "Read the entire project and create a CLAUDE.md based on:
Think Before Coding, Simplicity First, Surgical Changes, Goal-Driven Execution.
Adapt to the real architecture you see." --allowedTools Bash,Write,Read
```
置き換えるもの:シンプルなタスクを過度に設計し、誰も求めていない依存関係を追加し、触るべきでないファイルを触るClaude。
## Part 2 - Everything Claude Code:1つのリポジトリに完全なエンジニアリングチーム
github.com/affaan-m/everything-claude-code(スター153,000以上)
これは単なるプロンプトコレクションではありません。プロダクトを構築するための完全なAIオペレーティングシステムです。
```
30以上の専門エージェント:
planner.md → 機能計画
architect.md → システム決定
tdd-guide.md → テスト駆動開発
code-reviewer.md → 品質とセキュリティレビュー
security-reviewer.md → 脆弱性分析
loop-operator.md → 自律ループ実行
```
```
180以上のスキル:
TDD、セキュリティ、リサーチ、コンテンツ——全て書き済み
```
```
AgentShield組み込み:
1,282のセキュリティテストが設定内に
生産性と保護を同時に
```
Claude、Codex、Cursor、OpenCode、Geminiで動作——1つのシステムでどこでも。
インストール方法:
```python
/plugin marketplace add affaan-m/everything-claude-code
```
または手動で——必要なコンポーネントをプロジェクトの.claude/にコピーします。全部一度に読み込まないこと——同時に27エージェントと64スキルをコンテキストに入れると、最初のプロンプトを入力するよりも速くリミットを燃やします。実際に必要なものだけを取りましょう。
実際の違い:
```
以前: あなたはAIとチャットする
以後: あなたはAIエンジニアのチームをオートパイロットで管理する
```
置き換えるもの:自分のエージェントシステムの設定に費やす数週間、計画/レビュー/セキュリティ用の別々のツール、専門AIサービスに月$200〜500。
## Part 3 - 隠れたスキャンダル:Claude Code v2.1.100が密かにトークンを盗んでいる
誰かが4つの異なるClaude CodeバージョンでフルAPIリクエストを傍受するHTTPプロキシをセットアップしました。
発見したこと:
```
v2.1.98: 169,514バイトのリクエスト → 49,726トークン課金
v2.1.100: 168,536バイトのリクエスト → 69,922トークン課金
差: -978バイトだが+20,196トークン
```
v2.1.100はより少ないバイトを送るが、2万トークン多く課金されます。インフレは完全にサーバーサイドで——/contextを通じて見ることも検証することもできません。
なぜ請求を超えて重要なのか:
```
それら2万トークンはClaudeの実際のコンテキストウィンドウに入ります。
つまり:
→ CLAUDE.mdの指示が2万トークンの隠れたコンテンツで薄められる
→ 長いセッションで品質が速く低下する
→ Claudeがルールを無視したとき——なぜかわからない
→ Claude Maxのリミットが本来の40%速く燃える
```
修正は30秒:
```python
npx claude-code@2.1.98
```
Anthropicが正式に問題を修正するまでの一時的な解決策。しかしセッションの違いはすぐに気づきます。
置き換えるもの:なぜClaudeが突然あなたの指示に従わなくなったのかの推測。
## ケーススタディ:完全自動化の実態
11年の経験を持つエンジニアが3パートのシステムを構築しました:
```
STEP 1 — 分類:
dotnetアプリが15分ごとにGitLab APIを呼び出す
→ ClaudeがIssueを読み、開発準備ができているかどうかを決定
→ 準備できていなければ——GitLab上にレビュー用のドラフト返信を投稿
STEP 2 — 実行:
Issueが準備できていれば → サブエージェントが作業開始
→ 新しいブランチにプッシュ
→ レビュー用のPRを作成
STEP 3 — PRワークフロー:
→ IssueのPRがあるかを確認
→ 新しいコメントを確認
→ PRのコメントを実装
```
1週間後の結果:
```
以前: 1日8時間のコーディング
以後: 2〜3時間のレビューとテスト
コード品質: 同じ——全てを自分でレビュー
Teamsのステータス: オンライン——マウスが毎分自動で動く
残りの1日: 自由
```
これは魔法ではありません。CLAUDE.md + 適切なエージェント + 15分サイクルです。
## フルチェックリスト
```
STEP 1 — Karpathy CLAUDE.md(5分):
claude -p "Create a CLAUDE.md based on Karpathy's principles for this project"
--allowedTools Bash,Write,Read
STEP 2 — Everything Claude Code(10分):
/plugin marketplace add affaan-m/everything-claude-code
必要なエージェントだけをインストール——全部一度に入れない
STEP 3 — トークン修正(30秒):
npx claude-code@2.1.98
```
これを読んだ後に得られるもの:
```
以前: Claudeは40%のケースで慣例を破る
以後: Karpathy CLAUDE.mdで違反は3%に低下
以前: 自分のエージェントシステムのセットアップに数週間を費やす
以後: (省略)
```

claude-setupclaude-workflowagent-ops
GoogleエンジニアがClaude Codeで業務80%自動化
♥ 26↻ 3
原文を表示 / Show original
Noisy
@noisyb0y1
Google engineer automated 80% of his work with Claude Code. here's the exact system he built.
30
177
1.2K
2.3M
Google engineer with 11 years of experience automated 80% of his work using Claude Code and a simple dotnet app.
Now he works 2-3 hours a day instead of 8 and chills the rest of the time while the system runs itself making $28,000 in passive income.
Here's what he knows that you don't.
Part 1 - CLAUDE.md by Karpathy's rules
Andrej Karpathy - one of the most influential AI researchers in the world - documented the most common mistakes LLMs make when writing code: over-engineering, ignoring existing patterns, adding dependencies nobody asked for.
Someone took these observations and turned them into a single CLAUDE.md file.
The result - 15,000 stars on GitHub in a week, you could say 15k people changed their lives
The idea is simple: if mistakes are predictable — they can be prevented with the right instructions. One markdown file in the repo gives Claude Code a structured set of behavioral rules for the entire project.
Four principles inside:
plaintext
Think Before Coding → stops wrong assumptions and missed tradeoffs
Simplicity First → stops over-engineering and bloated abstractions
Surgical Changes → stops touching code nobody asked to touch
Goal-Driven Execution → tests first, verified success criteria
No frameworks. No complex tooling. One file that changes Claude's behavior at the project level.
Real difference:
plaintext
Without CLAUDE.md: Claude breaks conventions in ~40% of cases
With Karpathy CLAUDE.md: violations drop to ~3%
Setup time: 5 minutes
Command that auto-generates your own CLAUDE.md:
python
claude -p "Read the entire project and create a CLAUDE.md based on:
Think Before Coding, Simplicity First, Surgical Changes, Goal-Driven Execution.
Adapt to the real architecture you see." --allowedTools Bash,Write,Read
Replaces: Claude that over-engineers simple tasks, adds dependencies nobody asked for and touches files it shouldn't.
Part 2 - Everything Claude Code: a full engineering team in one repo
github.com/affaan-m/everything-claude-code ( 153,000+ stars )
This isn't just a prompt collection. It's a complete AI operating system for building products.
plaintext
30+ specialized agents:
planner.md → feature planning
architect.md → system decisions
tdd-guide.md → test-driven development
code-reviewer.md → quality and security review
security-reviewer.md → vulnerability analysis
loop-operator.md → autonomous loop execution
plaintext
180+ skills:
TDD, security, research, content — all already written
plaintext
AgentShield built in:
1,282 security tests right in the config
productivity AND protection at the same time
Works on Claude, Codex, Cursor, OpenCode, Gemini - one system everywhere.
How to install:
python
/plugin marketplace add affaan-m/everything-claude-code
Or manually - copy the components you need into your project's .claude/. Don't load everything at once - 27 agents and 64 skills in context simultaneously will burn your limits faster than you can type your first prompt. Take only what you actually need.
Real difference:
plaintext
Before: you chat with AI
After: you manage a team of AI engineers on autopilot
Replaces: weeks of setting up your own agent system, separate tools for planning/review/security, $200-500/month on specialized AI services.
Part 3 - The hidden scandal: Claude Code v2.1.100 is silently stealing your tokens
Someone set up an HTTP proxy to intercept full API requests across 4 different Claude Code versions.
Here's what they found:
plaintext
v2.1.98: 169,514 bytes request → 49,726 tokens charged
v2.1.100: 168,536 bytes request → 69,922 tokens charged
difference: -978 bytes but +20,196 tokens
v2.1.100 sends FEWER bytes but charges 20,000 MORE tokens. The inflation is entirely server-side - you can't see it and can't verify it through /context.
Why this matters beyond billing:
plaintext
Those 20,000 tokens go into Claude's actual context window.
Which means:
→ your CLAUDE.md instructions get diluted by 20K tokens of hidden content
→ quality degrades faster in long sessions
→ when Claude ignores your rules — you can't figure out why
→ Claude Max limits burn 40% faster than they should
Fix takes 30 seconds:
python
npx claude-code@2.1.98
Temporary solution until Anthropic officially fixes the issue. But the difference in sessions is noticeable immediately.
Replaces: guessing why Claude suddenly stopped following your instructions.
Case study: what full automation looks like
An engineer with 11 years of experience built a three-part system:
plaintext
STEP 1 — Classification:
dotnet app calls GitLab API every 15 minutes
→ Claude reads the issue and decides if it's ready for development
→ if not — posts a draft response on GitLab for review
STEP 2 — Execution:
if issue is ready → subagent starts working
→ pushes to a new branch
→ creates PR for review
STEP 3 — PR workflow:
→ checks if there's a PR for the issue
→ checks for new comments
→ implements comments from PR
Result after a week:
plaintext
Before: 8 hours of coding per day
After: 2-3 hours of review and testing
Code quality: the same — he reviews everything
Status in Teams: online — mouse moves every minute automatically
Rest of the day: free
This isn't magic. It's CLAUDE.md + the right agents + a 15-minute cycle.
Full checklist
plaintext
STEP 1 — Karpathy CLAUDE.md (5 minutes):
claude -p "Create a CLAUDE.md based on Karpathy's principles for this project"
--allowedTools Bash,Write,Read
STEP 2 — Everything Claude Code (10 minutes):
/plugin marketplace add affaan-m/everything-claude-code
Install only the agents you need — not all at once
STEP 3 — Token fix (30 seconds):
npx claude-code@2.1.98
What you get after reading this
plaintext
Before: Claude breaks conventions in 40% of cases
After: violations drop to 3% with Karpathy CLAUDE.md
Before: you spend weeks setting u