AIFCC
記事一覧へ
claude-setupclaude-workflowagent-ops

GoogleエンジニアがClaude Codeで業務80%自動化

Noisy@noisyb0y1
263
Noisy @noisyb0y1 Googleのエンジニアが、Claude Codeで仕事の80%を自動化しました。彼が構築した具体的なシステムを紹介します。 30 177 1.2K 2.3M 11年の経験を持つGoogleエンジニアが、Claude Codeとシンプルなdotnetアプリを使って仕事の80%を自動化しました。 今では1日2〜3時間だけ働き、システムが自走する残り時間は休憩しながら、月$28,000のパッシブインカムを得ています。 彼が知っていて、あなたが知らないことを紹介します。 ## Part 1 - KarpathyルールによるCLAUDE.md Andrej Karpathy——世界で最も影響力あるAI研究者の1人——は、LLMがコードを書く際に犯す最も一般的なミスをまとめました:過度な設計、既存パターンの無視、誰も求めていない依存関係の追加。 誰かがこれらの観察を1つのCLAUDE.mdファイルに変換しました。 結果——1週間でGitHubで15,000スターを獲得、1万5,000人の人生が変わったと言えます。 アイデアはシンプルです:ミスが予測可能なら——正しい指示でそれを防ぐことができます。リポジトリ内の1つのマークダウンファイルが、プロジェクト全体のClaude Codeの行動に構造化されたルールセットを与えます。 中にある4つの原則: ``` コーディング前に考える → 間違った仮定と見落とされたトレードオフを防ぐ シンプルさ優先 → 過度な設計と膨張した抽象化を防ぐ 外科的な変更 → 誰も触れとは言っていないコードを触るのを防ぐ 目標駆動の実行 → まずテスト、成功基準の検証 ``` フレームワークなし。複雑なツールなし。プロジェクトレベルでClaudeの行動を変える1つのファイル。 実際の違い: ``` CLAUDE.mdなし: Claudeは約40%のケースで慣例を破る Karpathy CLAUDE.mdあり: 違反は約3%に低下 セットアップ時間: 5分 ``` 自分のCLAUDE.mdを自動生成するコマンド: ```python claude -p "Read the entire project and create a CLAUDE.md based on: Think Before Coding, Simplicity First, Surgical Changes, Goal-Driven Execution. Adapt to the real architecture you see." --allowedTools Bash,Write,Read ``` 置き換えるもの:シンプルなタスクを過度に設計し、誰も求めていない依存関係を追加し、触るべきでないファイルを触るClaude。 ## Part 2 - Everything Claude Code:1つのリポジトリに完全なエンジニアリングチーム github.com/affaan-m/everything-claude-code(スター153,000以上) これは単なるプロンプトコレクションではありません。プロダクトを構築するための完全なAIオペレーティングシステムです。 ``` 30以上の専門エージェント: planner.md → 機能計画 architect.md → システム決定 tdd-guide.md → テスト駆動開発 code-reviewer.md → 品質とセキュリティレビュー security-reviewer.md → 脆弱性分析 loop-operator.md → 自律ループ実行 ``` ``` 180以上のスキル: TDD、セキュリティ、リサーチ、コンテンツ——全て書き済み ``` ``` AgentShield組み込み: 1,282のセキュリティテストが設定内に 生産性と保護を同時に ``` Claude、Codex、Cursor、OpenCode、Geminiで動作——1つのシステムでどこでも。 インストール方法: ```python /plugin marketplace add affaan-m/everything-claude-code ``` または手動で——必要なコンポーネントをプロジェクトの.claude/にコピーします。全部一度に読み込まないこと——同時に27エージェントと64スキルをコンテキストに入れると、最初のプロンプトを入力するよりも速くリミットを燃やします。実際に必要なものだけを取りましょう。 実際の違い: ``` 以前: あなたはAIとチャットする 以後: あなたはAIエンジニアのチームをオートパイロットで管理する ``` 置き換えるもの:自分のエージェントシステムの設定に費やす数週間、計画/レビュー/セキュリティ用の別々のツール、専門AIサービスに月$200〜500。 ## Part 3 - 隠れたスキャンダル:Claude Code v2.1.100が密かにトークンを盗んでいる 誰かが4つの異なるClaude CodeバージョンでフルAPIリクエストを傍受するHTTPプロキシをセットアップしました。 発見したこと: ``` v2.1.98: 169,514バイトのリクエスト → 49,726トークン課金 v2.1.100: 168,536バイトのリクエスト → 69,922トークン課金 差: -978バイトだが+20,196トークン ``` v2.1.100はより少ないバイトを送るが、2万トークン多く課金されます。インフレは完全にサーバーサイドで——/contextを通じて見ることも検証することもできません。 なぜ請求を超えて重要なのか: ``` それら2万トークンはClaudeの実際のコンテキストウィンドウに入ります。 つまり: → CLAUDE.mdの指示が2万トークンの隠れたコンテンツで薄められる → 長いセッションで品質が速く低下する → Claudeがルールを無視したとき——なぜかわからない → Claude Maxのリミットが本来の40%速く燃える ``` 修正は30秒: ```python npx claude-code@2.1.98 ``` Anthropicが正式に問題を修正するまでの一時的な解決策。しかしセッションの違いはすぐに気づきます。 置き換えるもの:なぜClaudeが突然あなたの指示に従わなくなったのかの推測。 ## ケーススタディ:完全自動化の実態 11年の経験を持つエンジニアが3パートのシステムを構築しました: ``` STEP 1 — 分類: dotnetアプリが15分ごとにGitLab APIを呼び出す → ClaudeがIssueを読み、開発準備ができているかどうかを決定 → 準備できていなければ——GitLab上にレビュー用のドラフト返信を投稿 STEP 2 — 実行: Issueが準備できていれば → サブエージェントが作業開始 → 新しいブランチにプッシュ → レビュー用のPRを作成 STEP 3 — PRワークフロー: → IssueのPRがあるかを確認 → 新しいコメントを確認 → PRのコメントを実装 ``` 1週間後の結果: ``` 以前: 1日8時間のコーディング 以後: 2〜3時間のレビューとテスト コード品質: 同じ——全てを自分でレビュー Teamsのステータス: オンライン——マウスが毎分自動で動く 残りの1日: 自由 ``` これは魔法ではありません。CLAUDE.md + 適切なエージェント + 15分サイクルです。 ## フルチェックリスト ``` STEP 1 — Karpathy CLAUDE.md(5分): claude -p "Create a CLAUDE.md based on Karpathy's principles for this project" --allowedTools Bash,Write,Read STEP 2 — Everything Claude Code(10分): /plugin marketplace add affaan-m/everything-claude-code 必要なエージェントだけをインストール——全部一度に入れない STEP 3 — トークン修正(30秒): npx claude-code@2.1.98 ``` これを読んだ後に得られるもの: ``` 以前: Claudeは40%のケースで慣例を破る 以後: Karpathy CLAUDE.mdで違反は3%に低下 以前: 自分のエージェントシステムのセットアップに数週間を費やす 以後: (省略) ```
原文を表示 / Show original
Noisy @noisyb0y1 Google engineer automated 80% of his work with Claude Code. here's the exact system he built. 30 177 1.2K 2.3M Google engineer with 11 years of experience automated 80% of his work using Claude Code and a simple dotnet app. Now he works 2-3 hours a day instead of 8 and chills the rest of the time while the system runs itself making $28,000 in passive income. Here's what he knows that you don't. Part 1 - CLAUDE.md by Karpathy's rules Andrej Karpathy - one of the most influential AI researchers in the world - documented the most common mistakes LLMs make when writing code: over-engineering, ignoring existing patterns, adding dependencies nobody asked for. Someone took these observations and turned them into a single CLAUDE.md file. The result - 15,000 stars on GitHub in a week, you could say 15k people changed their lives The idea is simple: if mistakes are predictable — they can be prevented with the right instructions. One markdown file in the repo gives Claude Code a structured set of behavioral rules for the entire project. Four principles inside: plaintext Think Before Coding → stops wrong assumptions and missed tradeoffs Simplicity First → stops over-engineering and bloated abstractions Surgical Changes → stops touching code nobody asked to touch Goal-Driven Execution → tests first, verified success criteria No frameworks. No complex tooling. One file that changes Claude's behavior at the project level. Real difference: plaintext Without CLAUDE.md: Claude breaks conventions in ~40% of cases With Karpathy CLAUDE.md: violations drop to ~3% Setup time: 5 minutes Command that auto-generates your own CLAUDE.md: python claude -p "Read the entire project and create a CLAUDE.md based on: Think Before Coding, Simplicity First, Surgical Changes, Goal-Driven Execution. Adapt to the real architecture you see." --allowedTools Bash,Write,Read Replaces: Claude that over-engineers simple tasks, adds dependencies nobody asked for and touches files it shouldn't. Part 2 - Everything Claude Code: a full engineering team in one repo github.com/affaan-m/everything-claude-code ( 153,000+ stars ) This isn't just a prompt collection. It's a complete AI operating system for building products. plaintext 30+ specialized agents: planner.md → feature planning architect.md → system decisions tdd-guide.md → test-driven development code-reviewer.md → quality and security review security-reviewer.md → vulnerability analysis loop-operator.md → autonomous loop execution plaintext 180+ skills: TDD, security, research, content — all already written plaintext AgentShield built in: 1,282 security tests right in the config productivity AND protection at the same time Works on Claude, Codex, Cursor, OpenCode, Gemini - one system everywhere. How to install: python /plugin marketplace add affaan-m/everything-claude-code Or manually - copy the components you need into your project's .claude/. Don't load everything at once - 27 agents and 64 skills in context simultaneously will burn your limits faster than you can type your first prompt. Take only what you actually need. Real difference: plaintext Before: you chat with AI After: you manage a team of AI engineers on autopilot Replaces: weeks of setting up your own agent system, separate tools for planning/review/security, $200-500/month on specialized AI services. Part 3 - The hidden scandal: Claude Code v2.1.100 is silently stealing your tokens Someone set up an HTTP proxy to intercept full API requests across 4 different Claude Code versions. Here's what they found: plaintext v2.1.98: 169,514 bytes request → 49,726 tokens charged v2.1.100: 168,536 bytes request → 69,922 tokens charged difference: -978 bytes but +20,196 tokens v2.1.100 sends FEWER bytes but charges 20,000 MORE tokens. The inflation is entirely server-side - you can't see it and can't verify it through /context. Why this matters beyond billing: plaintext Those 20,000 tokens go into Claude's actual context window. Which means: → your CLAUDE.md instructions get diluted by 20K tokens of hidden content → quality degrades faster in long sessions → when Claude ignores your rules — you can't figure out why → Claude Max limits burn 40% faster than they should Fix takes 30 seconds: python npx claude-code@2.1.98 Temporary solution until Anthropic officially fixes the issue. But the difference in sessions is noticeable immediately. Replaces: guessing why Claude suddenly stopped following your instructions. Case study: what full automation looks like An engineer with 11 years of experience built a three-part system: plaintext STEP 1 — Classification: dotnet app calls GitLab API every 15 minutes → Claude reads the issue and decides if it's ready for development → if not — posts a draft response on GitLab for review STEP 2 — Execution: if issue is ready → subagent starts working → pushes to a new branch → creates PR for review STEP 3 — PR workflow: → checks if there's a PR for the issue → checks for new comments → implements comments from PR Result after a week: plaintext Before: 8 hours of coding per day After: 2-3 hours of review and testing Code quality: the same — he reviews everything Status in Teams: online — mouse moves every minute automatically Rest of the day: free This isn't magic. It's CLAUDE.md + the right agents + a 15-minute cycle. Full checklist plaintext STEP 1 — Karpathy CLAUDE.md (5 minutes): claude -p "Create a CLAUDE.md based on Karpathy's principles for this project" --allowedTools Bash,Write,Read STEP 2 — Everything Claude Code (10 minutes): /plugin marketplace add affaan-m/everything-claude-code Install only the agents you need — not all at once STEP 3 — Token fix (30 seconds): npx claude-code@2.1.98 What you get after reading this plaintext Before: Claude breaks conventions in 40% of cases After: violations drop to 3% with Karpathy CLAUDE.md Before: you spend weeks setting u

AIFCC — AI Fluent CxO Club

読み書きそろばん、AI。経営者が AI を自分で動かせるようになるコミュニティ。

GoogleエンジニアがClaude Codeで業務80%自動化 | AIFCC