記事一覧へ
皆さんClaudeCode使ってて、こんな悩みありませんか?
・AIに毎回同じ説明をし直すのがめんどくさい
・昨日の会話を覚えてくれない
・調べたことが次のセッションでリセットされる
・過去に読んだ記事やメモが、結局どこかに消えてる
これ、全部「AIに記憶がない」ことが原因です。
元𝗢𝗽𝗲𝗻𝗔𝗜・元𝗧𝗲𝘀𝗹𝗮 𝗔𝗜部門トップの𝗔𝗻𝗱𝗿𝗲𝗷 𝗞𝗮𝗿𝗽𝗮𝘁𝗵𝘆が提唱した「AI外部脳」の構築方法を、𝗖𝗹𝗮𝘂𝗱𝗲 𝗖𝗼𝗱𝗲で実際に動かせるレベルまで落とし込んだ記事が海外で𝟮,𝟭𝟬𝟬いいね超えの大バズ中です😳
書いたのは @hooeem。海外の𝗔𝗜開発者コミュニティで定期的にバズ記事を出しているクリエイターで、今回は完全初心者〜開発者まで𝟯段階のガイドとしてまとめています。
今回はその内容をわかりやすく噛み砕いて解説します👇
元ポストはこちら:https://x.com/hooeem/status/2041196025906418094
■ そもそも、なぜ今の𝗔𝗜の使い方は「間違っている」のか
元記事はこう始まります。
「ほとんどの人はAIを"記憶喪失の検索エンジン"として使っている」
質問する → 答えをもらう → タブを閉じる。翌日また最初からやり直す。何も蓄積しない。何も複利にならない。同じ文脈を再発見するためにトークンを燃やし続けている。
𝗞𝗮𝗿𝗽𝗮𝘁𝗵𝘆のシステムはこれを完全にひっくり返します。
𝟭. 素材を集める。記事、論文、YouTubeの書き起こし、PDF、気になるトピックに関するあらゆるもの
𝟮. AIがそれを全部読んで、構造化されたWikiを書く。要約、概念の解説、アイデア同士のつながり、マスターインデックス
𝟯. そのWikiに対して質問する。AIが自分で蓄積した知識を横断検索して、引用付きの統合された回答を返す
𝟰. 回答はWikiに自動で保存される。次の質問は過去の全作業の恩恵を受ける
𝟱. AIが定期的にWikiの健康チェックをする。矛盾、ギャップ、古い情報を見つけて修正する
結果は? 使うたびに賢くなるパーソナルナレッジベースです。
𝟭ヶ月も情報を入れ続ければ、Google検索では絶対に再現できない、深くリンクされた知識資産ができあがります。なぜなら、これは「インデックス」ではなく「統合」されたものだから。
元記事いわく、これはどんなテーマでも使えます。暗号資産市場、医学研究、法律判例、競合分析、学術研究、哲学。知識を時間をかけて蓄積し、つなげたい分野なら何でも。
■ 𝗟𝗲𝘃𝗲𝗹 𝟭:完全初心者向け(𝗢𝗯𝘀𝗶𝗱𝗶𝗮𝗻 + 𝗖𝗹𝗮𝘂𝗱𝗲 𝗖𝗵𝗮𝘁)
技術スキルは一切不要。必要なのは𝟮つだけ。
・𝗢𝗯𝘀𝗶𝗱𝗶𝗮𝗻(無料)── obsidian.md からダウンロード
・𝗖𝗹𝗮𝘂𝗱𝗲のサブスク(月$𝟮𝟬の𝗣𝗿𝗼、または好みのAIチャットボット)
これだけです。
𝗦𝘁𝗲𝗽 𝟭:Vaultを作る(𝟮分)
𝗢𝗯𝘀𝗶𝗱𝗶𝗮𝗻を開いて「新しいVaultを作成」をクリック。名前をつけて保存場所を選ぶだけ。Vaultはただのフォルダです。その中のMarkdownファイルが自動でノートとして表示されます。
𝗦𝘁𝗲𝗽 𝟮:𝟮つのフォルダを作る(𝟭分)
𝗿𝗮𝘄 ── 元素材を入れるフォルダ(記事、メモ、何でも)
𝘄𝗶𝗸𝗶 ── AIがまとめたナレッジを保存するフォルダ
これが基本構造の全て。
𝗦𝘁𝗲𝗽 𝟯:最初の素材を入れる(𝟱分)
自分が本当に興味あるテーマを𝟭つ選ぶ。そのテーマについて良い記事を𝟯〜𝟱本見つける。それぞれ𝗿𝗮𝘄フォルダにノートを作って本文をコピペ。先頭に Source: [URL] と書いておく。
フォーマットは気にしなくていい。とにかくテキストを入れることが大事。
𝗦𝘁𝗲𝗽 𝟰:AIにWikiを作らせる(𝟱分)
𝗖𝗹𝗮𝘂𝗱𝗲(claude.ai)を開いて、元記事で紹介されているプロンプトを使います。自分の素材を貼り付けて「各ソースの要約を書いて、主要な概念をリストアップして、マスターインデックスを作って」と指示。
Claudeが構造化された出力を返すので、それぞれ𝘄𝗶𝗸𝗶フォルダにノートとして保存する。
𝗦𝘁𝗲𝗽 𝟱:魔法を見る
𝗢𝗯𝘀𝗶𝗱𝗶𝗮𝗻のグラフビュー(Ctrl+G)を開くと、ノートが点として表示され、Wikiリンクが線でつながっている。これがあなたのナレッジベースのネットワーク。
ここからは日々の習慣として、新しい記事を見つけたら𝗿𝗮𝘄に入れて、Claudeに「既存のインデックスを踏まえて新しいソースを処理して」と頼む。矛盾があればClaudeが⚠️でフラグを立ててくれる。
つまり、Level 1はコピペだけで動く。ターミナルもコーディングも不要。
■ 𝗟𝗲𝘃𝗲𝗹 𝟮:フルシステム(𝟯層アーキテクチャ + 𝗖𝗟𝗔𝗨𝗗𝗘.𝗺𝗱)
Level 1が「コピペ運用」だとすれば、Level 2は「AIが自分でファイルを作って管理するシステム」です。
元記事が提案するアーキテクチャは𝟯層構造です。
𝗟𝗮𝘆𝗲𝗿 𝟭:𝗿𝗮𝘄/(元素材) ── 唯一の原典。AIはここを読むが書き換えない。記事、論文、リポジトリのドキュメント、データセット、画像が入る。
𝗟𝗮𝘆𝗲𝗿 𝟮:𝘄𝗶𝗸𝗶/(コンパイル済みWiki) ── AIが生成・維持する。要約、概念記事、人物・組織ページ、クロスリンク、インデックス、クエリ出力がここに入る。基本的に人間は直接編集しない。
𝗟𝗮𝘆𝗲𝗿 𝟯:𝗖𝗟𝗔𝗨𝗗𝗘.𝗺𝗱(スキーマ) ── AIに「このWikiの構造、命名規則、実行可能な操作」を教える設定ファイル。Vaultのルートに置く。
そして𝟰つの運用サイクルが回り続けます。
・𝗜𝗻𝗴𝗲𝘀𝘁 ── 新しい素材を取り込む。AIが要約、概念ページ、つながりを自動生成
・𝗖𝗼𝗺𝗽𝗶𝗹𝗲 ── Wikiページを構築・更新。インデックス維持、新情報の既存構造への統合
・𝗤𝘂𝗲𝗿𝘆 ── 質問する。AIがWiki内を横断検索して引用付き回答を返す。回答はWikiに保存
・𝗟𝗶𝗻𝘁 ── 健康チェック。矛盾、ギャップ、壊れたリンク、古い情報を発見して自動修正
元記事で示されているフォルダ構造はこう👇
my-knowledge-base/
├── raw/
│ ├── articles/
│ ├── papers/
│ ├── repos/
│ ├── datasets/
│ └── assets/
├── wiki/
│ ├── index.md
│ ├── log.md
│ ├── concepts/
│ ├── entities/
│ ├── sources/
│ ├── syntheses/
│ ├── outputs/
│ └── attachments/
├── templates/
└── CLAUDE.md
ファイル名は全てケバブケース(小文字ハイフン区切り)。たとえば active-inference.md ✓、Active Inference.md ✗。ソースの要約は author-year-short-title.md(例:friston-2010-free-energy.md)の形式。
𝗖𝗟𝗔𝗨𝗗𝗘.𝗺𝗱にはWikiの構造、命名規則、各操作(Ingest/Query/Lint)の具体的な手順、ページ作成の閾値(2つ以上のソースに出てきた概念はフルページ化、1回だけならスタブ)、品質基準(要約は200-500語、概念記事は500-1500語)などを記述します。
元記事いわく「このファイルは80行以内に収めること。すべての行がコンテキストウィンドウを食う」。
■ ナレッジベースに何を入れるべきか
元記事はこう問いかけます。
「この1年で消費して、そのまま消えたものを考えてみてほしい」
・読み終わって忘れた本
・考え方を変えたポッドキャスト
・夜11時に保存して二度と開かなかった記事
・どのコースより多くのことを教えてくれたYouTubeの深夜ラビットホール
・マーカーを引いて二度と見なかったKindleのハイライト
・大きな決断の前にやったリサーチ
・古いプロジェクトのノート
・うまくいかなかったことから学んだ教訓
全部、どこかで何もせずに眠っている。これが全てVaultに入るべきもの。
もし何も素材がなかったら? Claudeチャットを開いて20分間話す。仕事のこと、目標、今作っているもの、今考えていること。その会話をMemoryファイルとして保存する。それだけで最初のセッションから「Claudeが自分のことを知っている」感覚になる。
Vaultは完璧じゃなくても役に立つ。大事なのは「リアル」であること。
■ 𝗟𝗲𝘃𝗲𝗹 𝟯:自動化(𝟱段階)
ここからがパワーユーザー向け。元記事では自動化を𝟱段階に分けて解説しています。
𝗟𝗲𝘃𝗲𝗹 𝟯-𝟭:CLIで一発実行
𝗖𝗹𝗮𝘂𝗱𝗲 𝗖𝗼𝗱𝗲をターミナルで開いて、1つのコマンドでraw/内の未処理ファイルを全部処理させる。
𝗟𝗲𝘃𝗲𝗹 𝟯-𝟮:スラッシュコマンド
.claude/commands/ にMarkdownファイルを置くと /wiki-compile のようなカスタムコマンドが使える。繰り返しのワークフローを1コマンドに。
𝗟𝗲𝘃𝗲𝗹 𝟯-𝟯:スケジュール実行
Claude Desktopの /schedule 機能やcronで、毎朝自動でraw/の新ファイルを処理させる。記事をクリップして寝れば、起きたときにはWikiが更新済み。
𝗟𝗲𝘃𝗲𝗹 𝟯-𝟰:𝗚𝗶𝘁𝗛𝘂𝗯 𝗔𝗰𝘁𝗶𝗼𝗻𝘀
VaultをGitHubリポジトリにして、raw/にpushするとGitHub Actions上でClaude CodeがWikiをコンパイル。PCが電源オフでも動く。
𝗟𝗲𝘃𝗲𝗹 𝟯-𝟱:𝗔𝗴𝗲𝗻𝘁 𝗦𝗸𝗶𝗹𝗹𝘀
.claude/skills/ にスキルファイルを配置すると、Claudeが文脈を自動検出して適切な操作を実行。「raw/に新しいファイルを入れた」と言えば、コマンドを打たなくてもClaudeがIngestサイクルを自動で走らせる。
元記事のアドバイス:Level 3-1から始めて、慣れたら上に積み重ねていく。どこから始めても前のレベルを壊さない。
さらに、コミュニティがすでにプラグインを作っています。wiki-skillsプラグインを入れれば /wiki-init /wiki-ingest /wiki-query /wiki-lint のコマンドが即座に使える。手動で設定ファイルを書く必要すらない。
■ なぜ「メンテナンス」が最大のボトルネックだったのか
ここが元記事でもっとも深い洞察です。
Notion、Evernote、Roam Research... これまでも「セカンド脳」を標榜するツールはたくさんありました。でもほとんどの人が数ヶ月で使わなくなる。
理由は同じ。メンテナンスが面倒すぎる。
元記事いわく:「情報を入れるのは楽しい。でもタグの整理、クロスリファレンスの更新、構造の再編成── この追加作業が積み上がると、本来の仕事の上にさらに仕事が乗る。サボるとシステムが劣化する。半年後にリビルドを試みて、同じサイクルを繰り返す。」
Claudeはこのサイクルを永久に壊す。メンテナンスはただのコマンドになる。Vault全体の再編成はプロンプト一発。Notionからの移行? エクスポートファイルを処理して、プロパティを追加して、新しいシステムに再構造化── これも全部自動。
元記事は最後にVannevar Bushの𝗠𝗲𝗺𝗲𝘅(𝟭𝟵𝟰𝟱年)に触れます。個人的にキュレーションされた知識ストアで、ドキュメント間のつながりがドキュメントそのものと同じくらい価値がある── Bushはこれを描いたが、解決できなかったのは「誰がメンテナンスするか」だった。
いま、その答えが出た。
■ まとめ
・𝗞𝗮𝗿𝗽𝗮𝘁𝗵𝘆が提唱する𝗟𝗟𝗠 𝗞𝗻𝗼𝘄𝗹𝗲𝗱𝗴𝗲 𝗕𝗮𝘀𝗲は「AIに長期記憶を持たせる」アプローチ
・Level 1は𝗢𝗯𝘀𝗶𝗱𝗶𝗮𝗻 + Claudeチャットのコピペだけで始められる
・Level 2は𝟯層アーキテクチャ(raw / wiki / CLAUDE.md)と𝟰サイクル(Ingest / Compile / Query / Lint)
・Level 3は𝟱段階の自動化(CLI一発 → スラッシュコマンド → スケジュール → GitHub Actions → Agent Skills)
・Vaultに入れるべきは「この𝟭年で消費して消えたもの全部」
・過去のセカンド脳ツールが挫折した最大の原因「メンテナンス」を、AIが完全に肩代わりする
・コミュニティ製プラグイン(wiki-skills等)ですぐに始められる
出典:@hooeem
https://x.com/hooeem/status/2041196025906418094
━━━━━━━━━━
この記事が少しでも参考になった方へ。
𝗖𝗹𝗮𝘂𝗱𝗲 𝗖𝗼𝗱𝗲 𝗦𝘁𝘂𝗱𝗶𝗼 @ 𝗝𝗮𝗽𝗮𝗻(@ClaudeCode_love)は、
Claude Codeガチ勢3人で運営しているアカウントです。
実務レベルのCLI活用・自動化を毎日発信しています。
現在は上場企業とAIエージェントを共同開発中。
普段の発信内容👇
・Claude CodeやClaudeを活用したリアルなプロダクト開発事例
・Claude Code活用/Vibe Coding/開発トレンドの整理
・海外のClaude Codeに関する最新情報
開発思想から設計、実装、改善まで、
「作って終わり」ではなく"動くプロダクトを世に出す"ところまでを
前提にまとめています。
ご関心のある方は、ぜひフォローしてチェックしてみてください👀

claude-setupclaude-workflowai-thinkingmemory
KarpathyのAI外部脳理論をClaude Codeで実装する3段階ガイド
♥ 50↻ 2
原文を表示 / Show original
皆さんClaudeCode使ってて、こんな悩みありませんか?
・AIに毎回同じ説明をし直すのがめんどくさい
・昨日の会話を覚えてくれない
・調べたことが次のセッションでリセットされる
・過去に読んだ記事やメモが、結局どこかに消えてる
これ、全部「AIに記憶がない」ことが原因です。
元𝗢𝗽𝗲𝗻𝗔𝗜・元𝗧𝗲𝘀𝗹𝗮 𝗔𝗜部門トップの𝗔𝗻𝗱𝗿𝗲𝗷 𝗞𝗮𝗿𝗽𝗮𝘁𝗵𝘆が提唱した「AI外部脳」の構築方法を、𝗖𝗹𝗮𝘂𝗱𝗲 𝗖𝗼𝗱𝗲で実際に動かせるレベルまで落とし込んだ記事が海外で𝟮,𝟭𝟬𝟬いいね超えの大バズ中です😳
書いたのは @hooeem。海外の𝗔𝗜開発者コミュニティで定期的にバズ記事を出しているクリエイターで、今回は完全初心者〜開発者まで𝟯段階のガイドとしてまとめています。
今回はその内容をわかりやすく噛み砕いて解説します👇
元ポストはこちら:https://x.com/hooeem/status/2041196025906418094
■ そもそも、なぜ今の𝗔𝗜の使い方は「間違っている」のか
元記事はこう始まります。
「ほとんどの人はAIを"記憶喪失の検索エンジン"として使っている」
質問する → 答えをもらう → タブを閉じる。翌日また最初からやり直す。何も蓄積しない。何も複利にならない。同じ文脈を再発見するためにトークンを燃やし続けている。
𝗞𝗮𝗿𝗽𝗮𝘁𝗵𝘆のシステムはこれを完全にひっくり返します。
𝟭. 素材を集める。記事、論文、YouTubeの書き起こし、PDF、気になるトピックに関するあらゆるもの
𝟮. AIがそれを全部読んで、構造化されたWikiを書く。要約、概念の解説、アイデア同士のつながり、マスターインデックス
𝟯. そのWikiに対して質問する。AIが自分で蓄積した知識を横断検索して、引用付きの統合された回答を返す
𝟰. 回答はWikiに自動で保存される。次の質問は過去の全作業の恩恵を受ける
𝟱. AIが定期的にWikiの健康チェックをする。矛盾、ギャップ、古い情報を見つけて修正する
結果は? 使うたびに賢くなるパーソナルナレッジベースです。
𝟭ヶ月も情報を入れ続ければ、Google検索では絶対に再現できない、深くリンクされた知識資産ができあがります。なぜなら、これは「インデックス」ではなく「統合」されたものだから。
元記事いわく、これはどんなテーマでも使えます。暗号資産市場、医学研究、法律判例、競合分析、学術研究、哲学。知識を時間をかけて蓄積し、つなげたい分野なら何でも。
■ 𝗟𝗲𝘃𝗲𝗹 𝟭:完全初心者向け(𝗢𝗯𝘀𝗶𝗱𝗶𝗮𝗻 + 𝗖𝗹𝗮𝘂𝗱𝗲 𝗖𝗵𝗮𝘁)
技術スキルは一切不要。必要なのは𝟮つだけ。
・𝗢𝗯𝘀𝗶𝗱𝗶𝗮𝗻(無料)── obsidian.md からダウンロード
・𝗖𝗹𝗮𝘂𝗱𝗲のサブスク(月$𝟮𝟬の𝗣𝗿𝗼、または好みのAIチャットボット)
これだけです。
𝗦𝘁𝗲𝗽 𝟭:Vaultを作る(𝟮分)
𝗢𝗯𝘀𝗶𝗱𝗶𝗮𝗻を開いて「新しいVaultを作成」をクリック。名前をつけて保存場所を選ぶだけ。Vaultはただのフォルダです。その中のMarkdownファイルが自動でノートとして表示されます。
𝗦𝘁𝗲𝗽 𝟮:𝟮つのフォルダを作る(𝟭分)
𝗿𝗮𝘄 ── 元素材を入れるフォルダ(記事、メモ、何でも)
𝘄𝗶𝗸𝗶 ── AIがまとめたナレッジを保存するフォルダ
これが基本構造の全て。
𝗦𝘁𝗲𝗽 𝟯:最初の素材を入れる(𝟱分)
自分が本当に興味あるテーマを𝟭つ選ぶ。そのテーマについて良い記事を𝟯〜𝟱本見つける。それぞれ𝗿𝗮𝘄フォルダにノートを作って本文をコピペ。先頭に Source: [URL] と書いておく。
フォーマットは気にしなくていい。とにかくテキストを入れることが大事。
𝗦𝘁𝗲𝗽 𝟰:AIにWikiを作らせる(𝟱分)
𝗖𝗹𝗮𝘂𝗱𝗲(claude.ai)を開いて、元記事で紹介されているプロンプトを使います。自分の素材を貼り付けて「各ソースの要約を書いて、主要な概念をリストアップして、マスターインデックスを作って」と指示。
Claudeが構造化された出力を返すので、それぞれ𝘄𝗶𝗸𝗶フォルダにノートとして保存する。
𝗦𝘁𝗲𝗽 𝟱:魔法を見る
𝗢𝗯𝘀𝗶𝗱𝗶𝗮𝗻のグラフビュー(Ctrl+G)を開くと、ノートが点として表示され、Wikiリンクが線でつながっている。これがあなたのナレッジベースのネットワーク。
ここからは日々の習慣として、新しい記事を見つけたら𝗿𝗮𝘄に入れて、Claudeに「既存のインデックスを踏まえて新しいソースを処理して」と頼む。矛盾があればClaudeが⚠️でフラグを立ててくれる。
つまり、Level 1はコピペだけで動く。ターミナルもコーディングも不要。
■ 𝗟𝗲𝘃𝗲𝗹 𝟮:フルシステム(𝟯層アーキテクチャ + 𝗖𝗟𝗔𝗨𝗗𝗘.𝗺𝗱)
Level 1が「コピペ運用」だとすれば、Level 2は「AIが自分でファイルを作って管理するシステム」です。
元記事が提案するアーキテクチャは𝟯層構造です。
𝗟𝗮𝘆𝗲𝗿 𝟭:𝗿𝗮𝘄/(元素材) ── 唯一の原典。AIはここを読むが書き換えない。記事、論文、リポジトリのドキュメント、データセット、画像が入る。
𝗟𝗮𝘆𝗲𝗿 𝟮:𝘄𝗶𝗸𝗶/(コンパイル済みWiki) ── AIが生成・維持する。要約、概念記事、人物・組織ページ、クロスリンク、インデックス、クエリ出力がここに入る。基本的に人間は直接編集しない。
𝗟𝗮𝘆𝗲𝗿 𝟯:𝗖𝗟𝗔𝗨𝗗𝗘.𝗺𝗱(スキーマ) ── AIに「このWikiの構造、命名規則、実行可能な操作」を教える設定ファイル。Vaultのルートに置く。
そして𝟰つの運用サイクルが回り続けます。
・𝗜𝗻𝗴𝗲𝘀𝘁 ── 新しい素材を取り込む。AIが要約、概念ページ、つながりを自動生成
・𝗖𝗼𝗺𝗽𝗶𝗹𝗲 ── Wikiページを構築・更新。インデックス維持、新情報の既存構造への統合
・𝗤𝘂𝗲𝗿𝘆 ── 質問する。AIがWiki内を横断検索して引用付き回答を返す。回答はWikiに保存
・𝗟𝗶𝗻𝘁 ── 健康チェック。矛盾、ギャップ、壊れたリンク、古い情報を発見して自動修正
元記事で示されているフォルダ構造はこう👇
my-knowledge-base/
├── raw/
│ ├── articles/
│ ├── papers/
│ ├── repos/
│ ├── datasets/
│ └── assets/
├── wiki/
│ ├── index.md
│ ├── log.md
│ ├── concepts/
│ ├── entities/
│ ├── sources/
│ ├── syntheses/
│ ├── outputs/
│ └── attachments/
├── templates/
└── CLAUDE.md
ファイル名は全てケバブケース(小文字ハイフン区切り)。たとえば active-inference.md ✓、Active Inference.md ✗。ソースの要約は author-year-short-title.md(例:friston-2010-free-energy.md)の形式。
𝗖𝗟𝗔𝗨𝗗𝗘.𝗺𝗱にはWikiの構造、命名規則、各操作(Ingest/Query/Lint)の具体的な手順、ページ作成の閾値(2つ以上のソースに出てきた概念はフルページ化、1回だけならスタブ)、品質基準(要約は200-500語、概念記事は500-1500語)などを記述します。
元記事いわく「このファイルは80行以内に収めること。すべての行がコンテキストウィンドウを食う」。
■ ナレッジベースに何を入れるべきか
元記事はこう問いかけます。
「この1年で消費して、そのまま消えたものを考えてみてほしい」
・読み終わって忘れた本
・考え方を変えたポッドキャスト
・夜11時に保存して二度と開かなかった記事
・どのコースより多くのことを教えてくれたYouTubeの深夜ラビットホール
・マーカーを引いて二度と見なかったKindleのハイライト
・大きな決断の前にやったリサーチ
・古いプロジェクトのノート
・うまくいかなかったことから学んだ教訓
全部、どこかで何もせずに眠っている。これが全てVaultに入るべきもの。
もし何も素材がなかったら? Claudeチャットを開いて20分間話す。仕事のこと、目標、今作っているもの、今考えていること。その会話をMemoryファイルとして保存する。それだけで最初のセッションから「Claudeが自分のことを知っている」感覚になる。
Vaultは完璧じゃなくても役に立つ。大事なのは「リアル」であること。
■ 𝗟𝗲𝘃𝗲𝗹 𝟯:自動化(𝟱段階)
ここからがパワーユーザー向け。元記事では自動化を𝟱段階に分けて解説しています。
𝗟𝗲𝘃𝗲𝗹 𝟯-𝟭:CLIで一発実行
𝗖𝗹𝗮𝘂𝗱𝗲 𝗖𝗼𝗱𝗲をターミナルで開いて、1つのコマンドでraw/内の未処理ファイルを全部処理させる。
𝗟𝗲𝘃𝗲𝗹 𝟯-𝟮:スラッシュコマンド
.claude/commands/ にMarkdownファイルを置くと /wiki-compile のようなカスタムコマンドが使える。繰り返しのワークフローを1コマンドに。
𝗟𝗲𝘃𝗲𝗹 𝟯-𝟯:スケジュール実行
Claude Desktopの /schedule 機能やcronで、毎朝自動でraw/の新ファイルを処理させる。記事をクリップして寝れば、起きたときにはWikiが更新済み。
𝗟𝗲𝘃𝗲𝗹 𝟯-𝟰:𝗚𝗶𝘁𝗛𝘂𝗯 𝗔𝗰𝘁𝗶𝗼𝗻𝘀
VaultをGitHubリポジトリにして、raw/にpushするとGitHub Actions上でClaude CodeがWikiをコンパイル。PCが電源オフでも動く。
𝗟𝗲𝘃𝗲𝗹 𝟯-𝟱:𝗔𝗴𝗲𝗻𝘁 𝗦𝗸𝗶𝗹𝗹𝘀
.claude/skills/ にスキルファイルを配置すると、Claudeが文脈を自動検出して適切な操作を実行。「raw/に新しいファイルを入れた」と言えば、コマンドを打たなくてもClaudeがIngestサイクルを自動で走らせる。
元記事のアドバイス:Level 3-1から始めて、慣れたら上に積み重ねていく。どこから始めても前のレベルを壊さない。
さらに、コミュニティがすでにプラグインを作っています。wiki-skillsプラグインを入れれば /wiki-init /wiki-ingest /wiki-query /wiki-lint のコマンドが即座に使える。手動で設定ファイルを書く必要すらない。
■ なぜ「メンテナンス」が最大のボトルネックだったのか
ここが元記事でもっとも深い洞察です。
Notion、Evernote、Roam Research... これまでも「セカンド脳」を標榜するツールはたくさんありました。でもほとんどの人が数ヶ月で使わなくなる。
理由は同じ。メンテナンスが面倒すぎる。
元記事いわく:「情報を入れるのは楽しい。でもタグの整理、クロスリファレンスの更新、構造の再編成── この追加作業が積み上がると、本来の仕事の上にさらに仕事が乗る。サボるとシステムが劣化する。半年後にリビルドを試みて、同じサイクルを繰り返す。」
Claudeはこのサイクルを永久に壊す。メンテナンスはただのコマンドになる。Vault全体の再編成はプロンプト一発。Notionからの移行? エクスポートファイルを処理して、プロパティを追加して、新しいシステムに再構造化── これも全部自動。
元記事は最後にVannevar Bushの𝗠𝗲𝗺𝗲𝘅(𝟭𝟵𝟰𝟱年)に触れます。個人的にキュレーションされた知識ストアで、ドキュメント間のつながりがドキュメントそのものと同じくらい価値がある── Bushはこれを描いたが、解決できなかったのは「誰がメンテナンスするか」だった。
いま、その答えが出た。
■ まとめ
・𝗞𝗮𝗿𝗽𝗮𝘁𝗵𝘆が提唱する𝗟𝗟𝗠 𝗞𝗻𝗼𝘄𝗹𝗲𝗱𝗴𝗲 𝗕𝗮𝘀𝗲は「AIに長期記憶を持たせる」アプローチ
・Level 1は𝗢𝗯𝘀𝗶𝗱𝗶𝗮𝗻 + Claudeチャットのコピペだけで始められる
・Level 2は𝟯層アーキテクチャ(raw / wiki / CLAUDE.md)と𝟰サイクル(Ingest / Compile / Query / Lint)
・Level 3は𝟱段階の自動化(CLI一発 → スラッシュコマンド → スケジュール → GitHub Actions → Agent Skills)
・Vaultに入れるべきは「この𝟭年で消費して消えたもの全部」
・過去のセカンド脳ツールが挫折した最大の原因「メンテナンス」を、AIが完全に肩代わりする
・コミュニティ製プラグイン(wiki-skills等)ですぐに始められる
出典:@hooeem
https://x.com/hooeem/status/2041196025906418094
━━━━━━━━━━
この記事が少しでも参考になった方へ。
𝗖𝗹𝗮𝘂𝗱𝗲 𝗖𝗼𝗱𝗲 𝗦𝘁𝘂𝗱𝗶𝗼 @ 𝗝𝗮𝗽𝗮𝗻(@ClaudeCode_love)は、
Claude Codeガチ勢3人で運営しているアカウントです。
実務レベルのCLI活用・自動化を毎日発信しています。
現在は上場企業とAIエージェントを共同開発中。
普段の発信内容👇
・Claude CodeやClaudeを活用したリアルなプロダクト開発事例
・Claude Code活用/Vibe Coding/開発トレンドの整理
・海外のClaude Codeに関する最新情報
開発思想から設計、実装、改善まで、
「作って終わり」ではなく"動くプロダクトを世に出す"ところまでを
前提にまとめています。
ご関心のある方は、ぜひフォローしてチェックしてみてください👀