AIFCC
記事一覧へ
claude-workflowagent-opsai-thinkingobsidianresearch

Claude Code + Obsidian + スキルグラフでローカルリサーチエンジンを構築する方法

19218
過去6ヶ月で4社のクライアントのためにリサーチシステムを構築しました。メディア会社1社(有名ですが名前は出せません)、コンサルティングファーム2社、独立系アナリスト1社です。 合計で調査コストを約60%削減しました。そのうち1社は若手リサーチャー3名を解雇し、このシステム + アウトプットをレビューするシニアエディター1名に置き換えました。 派手なツールは不要。月500ドルのサブスクリプションも不要。47個開きっぱなしのChromタブも不要。 ただの.mdファイルのフォルダ、1つのAIエージェント(Claude)、そして1つのリサーチクエスチョンを受け取って通常チームが2週間かけるマルチ角度分析を生成するシステムだけです。 この記事はその完全な解説です。すべてのファイル、すべてのリンク、すべてのテンプレート。読み終わる頃には1時間で構築できる動くリサーチエンジンができあがります。 ## リサーチスキルグラフとは? ほとんどの人がAIをリサーチに使う方法はこうです:ChatGPTを開いて「Xについてリサーチして」と入力し、ウィキペディアのイントロのような表面的なサマリーをもらって、それを3時間かけて確認してギャップを自分で埋めます。 それはリサーチではありません。ただのGoogle検索に余計な手順が加わっただけです。 問題はAIではありません。構造をまったく与えていないことです。メソドロジーなし、評価基準なし、異なる角度からトピックを考えるフレームワークなし。毎回、記憶喪失の天才を雇っているようなものです。 リサーチスキルグラフがこれを解決します。 各ファイルが1つの「知識ノード」、リサーチシステムの脳の1ピースである、相互接続されたmarkdownファイルのフォルダです。各ファイル内で[[source-evaluation]]や[[contrarian]]のような[[wikiリンク]](二重括弧リンク)を使って他のノードを参照します。 このフォルダをClaudeに向けてリサーチクエスチョンを与えると、単にGoogle検索するのではありません。リンクをたどり、メソドロジーファイルを読み、ソース評価基準を適用し、6つのまったく異なるレンズでトピックを分析してからすべてを統合します。 違い:1つのプロンプトはサマリーを与えます。スキルグラフはリサーチ部門を与えます。 ## なぜ1つの大きなプロンプトではなく6つのレンズなのか? これが核心です。「トピックXをリサーチして」と聞く代わりに、AIに同じ問いを根本的に異なる角度から6回再考させます: 技術的:数字は実際に何を言っているか?データだけを見る 経済的:お金を追う。誰が払い、誰が儲け、どんなインセンティブが行動を駆動するか 歴史的:どんなパターンが繰り返されるか?以前に何が試されたか?皆が忘れているコンテキストは? 地政学的:グローバルなチェスボードまでズームアウト。どの国、どの力の動態 逆張り:コンセンサスが間違っているとしたら?誰が現在のナラティブから利益を得るか 第一原理:すべてを忘れる。基本的な真実だけから再構築 各レンズは他のレンズとしばしば矛盾する知見を生み出します。そしてレンズ間のその緊張が本当の洞察の住処です。 「なぜ世界で出生率が崩壊しているのか」をこのシステムで実行したとき、技術的レンズは「危機:数学は過酷」と言い、逆張りレンズは「日本は50年間低出生率が続いているが崩壊していない」と言いました。どちらも間違っていません。真実はその緊張の中に住んでいます。 ## 構築するフォルダ構造: ``` /research-skill-graph ├── index.md ├── research-log.md ├── methodology/ │ ├── research-frameworks.md │ ├── source-evaluation.md │ ├── synthesis-rules.md │ └── contradiction-protocol.md ├── lenses/ │ ├── technical.md │ ├── economic.md │ ├── historical.md │ ├── geopolitical.md │ ├── contrarian.md │ └── first-principles.md ├── projects/ │ └── (リサーチトピックごとに1サブフォルダ) ├── sources/ │ └── source-template.md └── knowledge/ ├── concepts.md └── data-points.md ``` 20ファイル、6フォルダ。それがあなたのリサーチ部門全体です。 今すぐこの構造を作ってください。デスクトップまたはObsidianにフォルダを開き、サブフォルダを作り、それらの名前で空の.mdファイルを作成します。戻ってきたらすべてを埋めます。 ## ファイル1:index.md(コマンドセンター) これが最も重要なファイルです。すべてのリサーチはここから始まります。目次ではなく、あなたが誰で、どんなシステムを使っていて、どう実行するかをAIに伝えるブリーフィングドキュメントです。 ```markdown # リサーチスキルグラフ — コマンドセンター ## 1. ミッション 1つの問いを受け取り、単一のGoogle検索やChatGPTプロンプトでは決して得られないマルチ角度分析を生み出す深層リサーチシステム。 50個開いたタブや散らばったノートの代わりに、このシステムは6つのリサーチレンズを通じた構造化された思考を強制します。それぞれが根本的に異なる角度から問いを再考します。 リサーチクエスチョン:[ここに問いを貼り付け] スコープ:[境界を定義 — 何が入り、何が入らないか] 時間軸:[どこまで遡り、どこまで先を見るか] アウトプット目標:[このリサーチはどの意思決定に役立てるか] ## 事前リサーチ(オプション — 複合モード用) この問いにつながる可能性のある過去のリサーチを[[research-log]]で確認してください。 関連する過去のプロジェクト:[research-log.mdから関連プロジェクトをリンク、またはクリーンなスタートのために空白] ## 2. ノードマップ 以下の各ノードは知識ファイルです。タスクを実行する前に関連するものを読んでください。[[wikiリンク]]はクリック可能です—たどってください。 ### メソドロジー - [[research-frameworks]] — 異なるタイプの問いへのアプローチ方法。正しいリサーチ構造を選ぶためにここから始める - [[source-evaluation]] — ソースが信頼に値するかを判断する基準。一次データからランダムなブログ投稿までのティアシステム - [[synthesis-rules]] — ニュアンスを失わずにレンズ全体の知見を組み合わせる方法。リサーチの最難関 - [[contradiction-protocol]] — ソースが不一致のときに何をするか。本当の洞察が隠れている場所 ### レンズ(コアエンジン) - [[technical]] — 機械的にどう機能するか?数字は実際に何を言っているか?ナラティブを排除してデータを見る - [[economic]] — お金を追う。誰が払い、誰が儲け、どの市場が動き、どんなインセンティブが行動を駆動するか - [[historical]] — どんなパターンが繰り返されるか?以前に何が試されたか?皆が忘れているコンテキストは? - [[geopolitical]] — どの国が最も影響を受けるか、どんな力のシフト、どんな同盟や紛争がこれを形作るか? - [[contrarian]] — コンセンサスが間違っているとしたら?誰が現在のナラティブから利益を得るか?誰も言っていないことは? - [[first-principles]] — 知っていると思うことすべてを忘れる。基本的な真実だけから再構築 ### アウトプット - [[executive-summary]] — 最終統合。500ワード以内。何を学んだか、何を意味するか、まだわからないことは何か - [[deep-dive]] — レンズ別に整理された完全な分析(相互参照と矛盾をハイライト) - [[key-players]] — このトピックで最も重要な人物、組織、国 - [[open-questions]] — リサーチ後もまだわからないこと。しばしば見つかったことより価値がある ### 知識ベース - [[concepts]] — リサーチに関連する主要な用語、定義、メンタルモデル - [[data-points]] — リサーチ中に収集した具体的な数字、統計、メトリクス(常にソース帰属を付与) ### ソース - [[source-template]] — 生のソースを構造化されたノートに処理するテンプレート ## 3. 実行指示 リサーチクエスチョンが与えられたとき: 1. このファイルを完全に読む。スコープと目標を理解する 2. [[research-frameworks]]を読んで、このタイプの問いに適したアプローチを選ぶ 3. [[source-evaluation]]を読んで、何が良い証拠として数えられるかを知る 4. 順番に各レンズに対して(技術 → 経済 → 歴史 → 地政学 → 逆張り → 第一原理): a. そのレンズのファイルを読んで、その特定の角度と問いを理解する b. そのレンズだけを通じてトピックをリサーチする c. 知見、ソース、信頼レベルを記録する d. 以前のレンズとの矛盾に注意する 5. [[contradiction-protocol]]を読む — レンズ間の不一致を解決または記録する 6. [[synthesis-rules]]を読む — すべてを組み合わせる 7. 4つのアウトプットファイルすべてを作成:[[executive-summary]]、[[deep-dive]]、[[key-players]]、[[open-questions]] 8. 学んだすべてで[[concepts]]と[[data-points]]を更新する 重要なルール:各レンズは問いを再考しなければならず、単に情報を追加するだけではダメです。技術的レンズと逆張りレンズは互いに不一致な2人の異なるリサーチャーによって書かれたように感じられなければなりません。その緊張が洞察の住処です。 ``` 注意:ノードマップはすべてのリンクにコンテキストを提供します。単に「[[technical]] — データ」ではなく、「[[technical]]、機械的にどう機能するか?数字は実際に何を言っているか?」という追加コンテキストが、エージェントがすべてのタスクですべてのファイルを開かずに意思決定を下すのを助けます。 ## ファイル2:research-frameworks.md(アプローチを選ぶ) これはリサーチがゴミイン・ゴミアウトにならないようにするためのものです。使う前にすべてのソースを評価するための5段階システムです。 ```markdown # リサーチフレームワーク 異なるタイプのリサーチクエスチョンへのアプローチ方法。リサーチを始める前にこれを読んで正しい構造を選んでください。 ## フレームワーク選択 ### タイプ1:「Xは本当か?」(検証) - [[technical]]レンズから始めてデータが実際に何を言っているかを確立 - 次に[[contrarian]]で主張をストレステスト - 次に[[historical]]で先例 - 最適用途:ファクトチェック、デバンキング、前提の検証 - 例:「核融合は2035年までに実現可能か?」 ### タイプ2:「なぜXが起きているのか?」(因果分析) - [[historical]]から始めて根本をたどる - 次に[[economic]]でインセンティブ構造を見つける - 次に[[technical]]でメカニズム - 次に[[geopolitical]]でシステム的な力 - 次に[[contrarian]]で因果チェーンに挑戦 - 最適用途:トレンドの理解、現象の説明 - 例:「なぜ世界で出生率が崩壊しているのか?」 ### タイプ3:「もしXだったら何が起きるか?」(シナリオプランニング) - [[first-principles]]から始めて基本的な前提を確立 - 次に[[technical]]で制約 - 次に[[economic]]でインセンティブ - 次に[[geopolitical]]で力の動態 - 最適用途:予測、戦略、意思決定 - 例:「出生率が30年間置換水準を下回り続けた場合、ヨーロッパに何が起きるか?」 ### タイプ4:「Xについて何をすべきか?」(意思決定サポート) - 既存知識の[[executive-summary]]から始める - 次に6つのレンズすべてを並行して実行 - レンズの合意でオプションをランク付け(6つのレンズのうち5つが同じ方向を指すなら高信頼) - 最適用途:投資の意思決定、ポリシー、戦略 ## リサーチの深さレベル ### レベル1:クイックスキャン(30分) - 最大3レンズ - 上位5ソースのみ - 目標:方向性の理解(確実性ではない) ### レベル2:標準リサーチ(2〜3時間) - 全6レンズ - 15〜25ソース - レンズ間の知見を相互参照 - 目標:証拠に裏付けられた知見ある意見 ### レベル3:ディープダイブ(1〜2日) - サブクエスチョン付きの全6レンズ - 一次データを含む50以上のソース - インタビュー/専門家ソースの統合 - 矛盾の解決が必要 - 目標:発表可能な分析、意思決定グレードのインテリジェンス ## ソース収集戦略 各レンズに対して: 1. 最高の単一ソースから始める([[source-evaluation]]を参照) 2. #1と最も不一致なソースを見つける 3. 両者を判断できる一次データを見つける 4. すべてを[[data-points]]に帰属とともに記録する ``` ## ファイル3:source-evaluation.md(信頼ティア) ```markdown # ソース評価 ソースが信頼に値するかを判断する方法。使う前にすべてのソースにこれを適用してください。 ## ソースティアシステム ### ティア1:一次データ(最高信頼) - 生のデータセット(国連、世界銀行、国家統計局) - メソドロジーが見える査読済み研究 - 財務申告、政府記録 - 直接の測定と観察 - 使用目的:[[data-points]]、ハードな主張、基本前提 ### ティア2:専門家分析 - ドメイン特化のリサーチ機関のレポート - その分野の認知された権威による書籍 - ソースを引用したロングフォームの調査報道 - 会議論文とワーキングペーパー - 使用目的:解釈、因果主張、フレームワーク構築 ### ティア3:情報に基づくコメンタリー - 専門家のブログ投稿とニュースレター - ドメイン専門家との質の高いポッドキャスト - シンクタンクレポート(資金源を確認) - 業界誌 - 使用目的:まだ考えていなかった角度、仮説の生成 ### ティア4:一般メディア - 主要ニュースアウトレット - Wikipedia(概観は良いが、最終的な主張には決して使わない) - 一般向け科学文章 - 使用目的:初期のオリエンテーションのみ。常に上流で確認 ### ティア5:ソーシャル/逸話的(最低信頼) - Twitterスレッド、Redditの投稿 - 個人の逸話 - バイラルコンテンツ - 使用目的:シグナル検出のみ。「皆がXについて話している」≠「Xは本当だ」 ## レッドフラグ(存在すれば任意のソースを1ティア下げる) - 引用ソースまたはメソドロジーがない - 著者が結論に財務的インセンティブを持つ - トピックについて既知のアジェンダを持つ組織が発行 - 都合の良い時間軸や地域だけを選んでいる - 相関と因果を混同している - 証拠の代わりに感情的な言語を使っている ## 評価チェックリスト リサーチの各主要な主張に対して問う: 1. このソースのティアは? 2. ティア1またはティア2のソースで同じ主張を見つけられるか? 3. このリサーチや出版物に誰が資金を提供したか? 4. 著者が間違っていた場合、何を失うか? 5. これは最良の利用可能な証拠か、単に最初に見つかったものか? 2つの信頼できるソースが不一致のとき、[[contradiction-protocol]]を参照。 ``` ## ファイル4:synthesis-rules.md(平坦化せずに組み合わせる) これが最難関です。ほとんどの人が統合をスキップして事実を積み上げるだけにします。このファイルが実際の思考を強制します。 ```markdown # 統合ルール ニュアンスを失わずにレンズ全体の知見を組み合わせる方法。これがリサーチの最難関です—ほとんどの人はスキップして事実を積み上げるだけにします。 ## 統合プロセス ### ステップ1:レンズのサマリー 全6レンズを完了した後、レンズごとに1段落のサマリーを書く: - このレンズの主要な知見は何か? - 信頼レベル:高 / 中 / 低 - この角度から何が驚きだったか? ### ステップ2:合意マップ レンズが一致している部分を特定: - 4つ以上のレンズが同じ方向を指す → 高信頼知見 - 3つのレンズが同意 → 中程度の信頼、留意事項付きで述べる価値あり - 1〜2つのレンズのみが主張を支持 → 仮説のみ、不確実としてフラグ立て ### ステップ3:緊張マップ レンズが不一致の部分を特定: - [[technical]]がXと言うが[[economic]]がYと言う → この緊張こそが洞察 - 勝者を選ぶことで解決しない。両方の立場を記録する - 問う:「各レンズはどんな条件で正しいか?」 - 解決フレームワークについては[[contradiction-protocol]]を参照 ### ステップ4:二次的洞察 最良の知見はレンズを組み合わせることから来る: - 「技術データは出生率の低下を示しているが、経済レンズはどこでも財務的インセンティブがそれを逆転させていないことを明らかにしている—つまり[[first-principles]]レンズの文化的シフトに関する議論が支配的な要因かもしれない」 - これらのクロスレンズの洞察が、50本の記事を読むよりこのシステムを強力にするものです ### ステップ5:信頼度の較正 各主要な知見に対して述べる: - 主張:何が真実だと信じるか - 証拠:最強の支持データ([[data-points]]から) - 信頼:高 / 中 / 低 - 考えを変えるもの:この結論を逆転させる具体的な証拠 ## アウトプットルール - 単一レンズの知見を結論として提示しない - 常にレンズ間の緊張を示す - 「データが示すこと」と「私が解釈すること」を分離する - [[open-questions]]は[[executive-summary]]と同様に重要 - 「Xは本当だ」より「YとZがあるためXはおそらく真実であるが、Aはこれを複雑にする」を好む ## アンチパターン(良いリサーチを殺すもの) - 確証バイアス:最初の直感を支持する証拠だけを検索する - ナラティブ誤謬:乱雑で矛盾したデータからきれいな物語を作る - 近視眼バイアス:30年のデータより最新の記事を過大評価する - 権威バイアス:印象的な人が言ったから信じる - アンカリング:最初に見つけた数字が頭の中の範囲を定義してしまう ``` ## ファイル5:contradiction-protocol.md(本当の洞察が隠れている場所) ほとんどのリサーチは矛盾を埋めます。このシステムは意図的にそれを表面化させます。矛盾は特徴です。 ```markdown # 矛盾プロトコル ソースやレンズが不一致のときに何をするか。本当の洞察はここに隠れています—矛盾はバグではなく特徴です。 ## 2つのソースが不一致のとき ### ステップ1:基本を確認 - 同じことについて話しているか?(異なる地域、時間軸、定義) - 同じデータを使っているか?(同じデータセット、異なる解釈?) - 1つのソースがもう1つより高いティアか?([[source-evaluation]]を参照) ### ステップ2:不一致の根本を見つける 通常次のいずれか: - 異なるデータ:異なるデータセットを見ている → どちらがより完全/最新かを見つける - 異なる解釈:同じデータ、異なる結論 → 推論チェーンを調べる - 異なるスコープ:一方はグローバル、他方は国固有 → 両方がそのコンテキストで正しいかもしれない - 異なる時間軸:短期対長期のトレンドは反対に見えることがある - 異なるインセンティブ:一方がデータを操作する理由を持つ → 資金、提携を確認 ### ステップ3:解決ではなく記録 [[deep-dive]]にこのように書く: 「ソースAは[データ]に基づいて[X]と主張する。ソースBは[データ]に基づいて[Y]と主張する。不一致はおそらく[根本原因]から来ている。条件[C1]では、Aがおそらく正しい。条件[C2]では、Bがおそらく正しい。」 ### ステップ4:解決不能なら[[open-questions]]に格上げ 誠実な努力の後も誰が正しいかを決定できない場合: - これは知見です。「XかYかわからない」は価値あるインテリジェンスです - 解決に必要な具体的な証拠とともに[[open-questions]]に追加する - これはしばしばリサーチの最も興味深い部分になります ## 2つのレンズが不一致のとき これは予期されていて健全です。異なるレンズは緊張を生み出すべきです。 ## 信頼度の調整 - 2つのレンズが同意、1つが不一致 → 不一致のレンズをより深く調査。他のレンズが見逃しているものを見ているかもしれない - すべてのレンズが同意 → 疑ってください。確証バイアスを持っているかもしれない。[[contrarian]]を再読してください - どのレンズも同意しない → リサーチクエスチョンが広すぎるかもしれない。[[index]]でスコープを絞る ``` ## ファイル6〜11:6つのレンズ 各レンズファイルは同じ構造に従います:コア質問、その角度を通じたリサーチ方法、アウトプット形式、声、他のレンズとの接続。技術的レンズを詳細な例として示します。他の5つはまったく同じパターンに従い、角度を変えるだけです。 ```markdown # レンズ:技術的 意見とナラティブを排除する。数字は実際に何を言っているか?どんなメカニズムが機能しているか? ## コア質問 1. データは何を示しているか?(データについて人が言うことではなく) 2. 測定可能な入力と出力は何か? 3. どんなメカニズムが現象を駆動するか? 4. ハードな制約(物理的、生物学的、数学的)は何か? 5. どのメトリクスが最も重要で、どう測定されるか? 6. データが不完全または不十分に測定されている場所はどこか? ## このレンズを通じてリサーチする方法 - ティア1のソースだけから始める([[source-evaluation]]を参照):生のデータセット、査読済み研究 - 探すもの:時系列、地域比較、人口統計的内訳 - すべてを定量化する。「低下」を「YとZの間に何%低下した」に置き換える - 測定問題を特定:このデータはどう収集されるか?何が除外されるか? - 基本率を見つける。「正常」とは何か?歴史的な範囲は何か? ## アウトプット形式 各知見に対して: - メトリクス:[何を測定したか] - 値:[数字] - ソース:[日付付きティア1または2のソース] - トレンド:[方向と変化率] - 留意事項:[測定の限界] すべての具体的な数字を[[data-points]]に記録する。 ## 声 臨床的。正確。感情的な言語なし。「出生率は2.1から1.6に低下した」(「出生率が崩壊している」ではなく)。数字に語らせる。 ## 接続 - [[source-evaluation]] — このレンズには高ティアのソースのみ - [[data-points]] — すべての数字はここへ - [[economic]] — 技術データはしばしば経済的結果を説明する - [[first-principles]] — 技術的制約が何が可能かを定義する ``` 他の5つのレンズは同じ構造ですが異なるコア質問: - 経済的:誰が払い、誰が儲け、どんなインセンティブ、どんなポリシーが試されたか、ROIは? - 歴史的:これはいつ以前に起きたか、どんな条件、何が試されたか、何が機能したか? - 地政学的:どの国が最も影響を受けるか、どんな力のシフト、どんな同盟が変わるか? - 逆張り:主流のナラティブは何か、その最強の反論は何か、コンセンサスから誰が利益を得るか? - 第一原理:絶対的な基本レベルの事実は何か、私たちが観察することの80%を説明する最もシンプルなモデルは何か? ## ファイル12:source-template.md リサーチ中に処理する各主要なソースにこれをコピーしてください。 ```markdown # ソース:[タイトル] - 著者:[誰] - 日付:[いつ発行] - URL:[リンク] - ティア:[1〜5、[[source-evaluation]]から] - レンズ:[どのレンズがこのソースを見つけたか] ## 主要な主張 1. [ページ/セクション参照付きの主張] 2. [主張] 3. [主張] ## 抽出されたデータ [任意の数字 → [[data-points]]にも追加する] ## メソドロジーノート [どうやって結論に至ったか?レッドフラグはあるか?] ## 接続 [これは他のどのソースやコンセプトに関連するか?[[wikiリンク]]を使う] ## 私の評価 [これは信頼できるか?何が強く、何が弱いか?] ``` ## 複利効果(なぜ時間とともに良くなるのか) これがシステムをChatGPTの会話やGoogle検索とは根本的に異なるものにします。 knowledge/concepts.mdとknowledge/data-points.mdはすべてのリサーチプロジェクトにわたって蓄積されます。5つのプロジェクト後、AIは200以上の検証済みデータポイントと50以上の定義されたコンセプトのベースからスタートします。 research-log.mdはすべてのプロジェクトと主要な知見・接続を追跡します。10番目のプロジェクトはゼロから始まらず、すでに学んだすべてから始まります。 さらに良いこと:あるリサーチのopen-questionsが次のindex.mdになります。出生率をリサーチしたとき、あるopen-questionは「AIの自動化は労働力不足を十分速く補えるか?」でした—それはすでに人口統計データからのコンテキストを持つ完全なリサーチプロジェクトです。 クリーンなスタートが欲しければ、freshなClaudeプロジェクトにmethodology/とlenses/だけをアップロードしてください。knowledge/なし、research-log/なし。同じシステム、フレッシュな脳。 ## 使い方 方法1:Claudeプロジェクト(推奨)。新しいプロジェクトを作成、すべてのファイルをアップロードし、「index.mdの実行指示に従って」トピックを与える。 方法2:コンテキストを貼り付ける。index.md + 関連するレンズファイルを任意のAIチャットにコピー。能力は劣るが、どこでも機能する。 方法3:Claude Code + Obsidian(最も強力)。ローカルのVaultにClaude Codeを向ける。エージェントがファイルを直接読み書きする。グラフが自己進化する—知識ファイルを更新し、新しいコンセプトを追加し、アウトプット品質に基づいてレンズを洗練させる。完全に自律的。 ## Obsidianで可視化する obsidian.mdからObsidian(無料)をダウンロード。research-skill-graphフォルダをVaultとして開く。すぐにすべてのノードがどう接続されているかを示すグラフビューが見えます。 index.mdが中心に座り、6つのレンズが放射状に伸び、メソドロジーファイルがレンズに接続し、知識ファイルがすべてに接続します。 これが与えてくれる2つのこと:どのノードが切断されているか(リサーチのギャップ)を見ることができ、プロジェクト間の予期しない接続(複合的洞察)を発見できます。 Obsidianはオプションです—AIはMarkdownをいずれにせよ読みます。しかしビジュアルグラフはシステムを具体的にし、デバッグの助けになります。 ## なぜこれが従来のリサーチに勝るのか 従来のリサーチ:50個のタブを開き、すべて同じことを言う20本の記事を読み、逆張りの見方を見逃し、歴史的なパターンを見逃し、確証バイアスに迷い込み、賢く聞こえるが構造のないサマリーを作る。 スキルグラフのリサーチ:1つの問いが6つの強制された角度を通る、各角度に評価基準がある、矛盾が隠蔽されずに記録される、ソースがティア分けされ、知見がプロジェクト全体で複合的に成長する。 最大の違いは逆張りレンズです。従来のリサーチはほとんど自分の知見に挑戦しません。このシステムには内蔵の悪魔の弁護人があり、「私がちょうど見つけたことがすべて間違っているとしたら?」と問い、反論の強さを誠実に評価します。 ## 1時間で構築する: 1. フォルダ構造を作る。20ファイル、6フォルダ。5分かかる 2. まずindex.mdを埋める:これが他のすべてを定義する 3. 6つのレンズファイルにコア質問とアウトプット形式を埋める 4. methodology/にソース評価ティアと統合ルールを埋める 5. すべてをClaudeプロジェクトにアップロード 6. トピックを与えてテスト 7. イテレートする。アウトプット品質に基づいてレンズファイルを更新する。各プロジェクト後にknowledge/にコンセプトを追加する システムは使うたびに良くなります。それが全ての要点です。
原文を表示 / Show original
i built a research system for 4 clients in the past 6 months. one media company (well-known, can't name them), two consulting firms, and one independent analyst. combined, they cut their research costs by about 60%. one of them fired 3 junior researchers and replaced them with this system + one senior editor who reviews the output. no fancy tools. no $500/mo subscriptions. no 47 open chrome tabs. just a folder of .md files, one ai agent (claude), and a system that takes one research question and produces a multi-angle analysis that would normally take a team 2 weeks. this article is the full breakdown. every file, every link, every template. by the end you'll have a working research engine you can build in 1 hour. what is a research skill graph? most people use ai for research like this: open chatgpt, type "research X for me", get a surface-level summary that sounds like a wikipedia intro, then spend 3 hours verifying it and filling the gaps yourself. that's not research. that's just a google search with extra steps. the problem isn't the ai. it's that you're giving it zero structure. no methodology, no evaluation criteria, no framework for thinking about the topic from different angles. you're hiring a genius with amnesia every single time. a research skill graph fixes this. it's a folder of interconnected markdown files where each file is one "knowledge node", one piece of your research system's brain. inside each file you use [[wikilinks]] (double-bracket links like [[source-evaluation]] or [[contrarian]]) to reference other nodes. when you point claude at this folder and give it a research question, it doesn't just google stuff. it follows the links, reads your methodology files, applies your source evaluation criteria, then analyzes the topic through 6 completely different lenses before synthesizing everything. the difference: a single prompt gives you a summary. a skill graph gives you a research department. why 6 lenses instead of one big prompt? this is the core idea. instead of asking "research topic X", you force the ai to rethink the same question 6 times from fundamentally different angles: technical: what do the numbers actually say? look at data only economic: follow the money. who pays, who profits, what incentives drive behavior historical: what patterns repeat? what's been tried before? what context is everyone forgetting geopolitical: zoom out to the global chessboard. which countries, which power dynamics contrarian: what if the consensus is wrong? who benefits from the current narrative first principles: forget everything. rebuild from fundamental truths only each lens produces findings that often contradict the others. and that tension between lenses is where the real insight lives. when i ran "why are birth rates collapsing globally" through this system, the technical lens said "crisis: the math is brutal", while the contrarian lens said "japan has had low fertility for 50 years and hasn't collapsed." neither is wrong. the truth lives in the tension. the folder structure you're going to build: /research-skill-graph ├── index.md ├── research-log.md ├── methodology/ │ ├── research-frameworks.md │ ├── source-evaluation.md │ ├── synthesis-rules.md │ └── contradiction-protocol.md ├── lenses/ │ ├── technical.md │ ├── economic.md │ ├── historical.md │ ├── geopolitical.md │ ├── contrarian.md │ └── first-principles.md ├── projects/ │ └── (one subfolder per research topic) ├── sources/ │ └── source-template.md └── knowledge/ ├── concepts.md └── data-points.md 20 files. 6 folders. that's your entire research department. go create this structure right now. open a folder on your desktop or in obsidian, make the subfolders, create empty .md files with those names. then come back and we'll fill every single one. file 1: index.md (the command center) this is the single most important file. every research starts here. it's not a table of contents, it's a briefing document that tells the ai who you are, what system you're using, and exactly how to execute. # Research Skill Graph — Command Center ## 1. Mission Deep research system that takes ONE question and produces a multi-angle analysis no single Google search or ChatGPT prompt could ever match. Instead of 50 open tabs and scattered notes, this system forces structured thinking through 6 research lenses, each one rethinking the question from a fundamentally different angle. Research Question: [PASTE YOUR QUESTION HERE] Scope: [DEFINE BOUNDARIES — what's in, what's out] Time Horizon: [how far back and forward are we looking?] Output Goal: [what decision does this research inform?] ## Prior Research (optional — for compound mode) Check [[research-log]] for previous research that may connect to this question. Relevant prior projects: [link any related projects from research-log.md, or leave empty for clean slate] ## 2. Node Map Every node below is a knowledge file. Read the relevant ones before executing any task. The [[wikilinks]] are clickable — follow them. ### Methodology - [[research-frameworks]] — how to approach different types of questions. start here to pick the right research structure - [[source-evaluation]] — criteria for judging if a source is worth trusting. tier system from primary data to random blog posts - [[synthesis-rules]] — how to combine findings across lenses without losing nuance. the hardest part of research - [[contradiction-protocol]] — what to do when sources disagree. this is where the real insights hide ### Lenses (the core engine) - [[technical]] — how does it work mechanically? what do the numbers actually say? strip away narrative, look at data - [[economic]] — follow the money. who pays, who profits, what markets move, what incentives drive behavior - [[historical]] — what patterns repeat? what's been tried before? what context does everyone forget? - [[geopolitical]] — which countries, which power dynamics, which alliances and conflicts shape this? - [[contrarian]] — what if the consensus is wrong? who benefits from the current narrative? what's nobody saying? - [[first-principles]] — forget everything you think you know. rebuild from fundamental truths only ### Outputs - [[executive-summary]] — the final synthesis. 500 words max. what did we learn, what does it mean, what's still unknown - [[deep-dive]] — the full analysis organized by lens, with cross-references and contradictions highlighted - [[key-players]] — people, organizations, countries that matter most on this topic - [[open-questions]] — what we STILL don't know after research. often more valuable than what we found ### Knowledge Base - [[concepts]] — key terms, definitions, mental models relevant to the research - [[data-points]] — hard numbers, statistics, metrics collected during research. always with source attribution ### Sources - [[source-template]] — template for processing raw sources into structured notes ## 3. Execution Instructions When given a research question: 1. Read this file completely. understand the scope and goal 2. Read [[research-frameworks]] to pick the right approach for this type of question 3. Read [[source-evaluation]] so you know what counts as good evidence 4. For EACH lens in order (technical → economic → historical → geopolitical → contrarian → first-principles): a. Read the lens file for its specific angle and questions b. Research the topic THROUGH that lens only c. Record findings, sources, and confidence level d. Note any contradictions with previous lenses 5. Read [[contradiction-protocol]] — resolve or document disagreements between lenses 6. Read [[synthesis-rules]] — combine everything 7. Produce all 4 output files: [[executive-summary]], [[deep-dive]], [[key-players]], [[open-questions]] 8. Update [[concepts]] and [[data-points]] with everything learned CRITICAL RULE: each lens must RETHINK the question, not just add more information. the technical lens and the contrarian lens should feel like they were written by two different researchers who disagree with each other. that tension is where insight lives. notice: the node map gives context with every link. not just "[[technical]] — data" but "[[technical]], how does it work mechanically? what do the numbers actually say?" that extra context helps the agent make decisions without opening every file for every task. file 2: research-frameworks.md (pick your approach) # Research Frameworks How to approach different types of research questions. Read this BEFORE starting any research to pick the right structure. ## Framework Selection ### Type 1: "Is X true?" (Verification) - Start with [[technical]] lens to establish what the data actually says - Then [[contrarian]] to stress-test the claim - Then [[historical]] for precedent - Best for: fact-checking, debunking, validating assumptions - Example: "Is nuclear fusion viable by 2035?" ### Type 2: "Why is X happening?" (Causal Analysis) - Start with [[historical]] to trace the roots - Then [[economic]] to find incentive structures - Then [[technical]] for mechanism - Then [[geopolitical]] for systemic forces - Then [[contrarian]] to challenge your causal chain - Best for: understanding trends, explaining phenomena - Example: "Why are birth rates collapsing globally?" ### Type 3: "What happens if X?" (Scenario Planning) - Start with [[first-principles]] to establish base assumptions - Then [[technical]] for constraints - Then [[economic]] for incentives - Then [[geopolitical]] for power dynamics - Best for: forecasting, strategy, decision-making - Example: "What happens to Europe if birth rates stay below replacement for 30 years?" ### Type 4: "What should I do about X?" (Decision Support) - Start with [[executive-summary]] of existing knowledge - Then run all 6 lenses in parallel - Rank options by lens agreement (if 5/6 lenses point the same way, high confidence) - Best for: investment decisions, policy, strategy ## Research Depth Levels ### Level 1: Quick Scan (30 min) - 3 lenses maximum - Top 5 sources only - Goal: directional understanding, not certainty ### Level 2: Standard Research (2-3 hours) - All 6 lenses - 15-25 sources - Cross-reference findings between lenses - Goal: informed opinion backed by evidence ### Level 3: Deep Dive (1-2 days) - All 6 lenses with sub-questions - 50+ sources including primary data - Interview/expert source integration - Contradiction resolution required - Goal: publishable analysis, decision-grade intelligence ## Source Collection Strategy For each lens: 1. Start with the BEST single source (see [[source-evaluation]]) 2. Find the source that DISAGREES most with #1 3. Find primary data that lets you judge between them 4. Record everything in [[data-points]] with attribution file 3: source-evaluation.md (trust tiers) this is what stops your research from being garbage-in-garbage-out. a 5-tier system for evaluating every source before using it. # Source Evaluation How to judge if a source is worth trusting. Apply this to EVERY source before using it in analysis. ## Source Tier System ### Tier 1: Primary Data (highest trust) - Raw datasets (UN, World Bank, national statistics offices) - Peer-reviewed studies with methodology visible - Financial filings, government records - Direct measurements and observations - USE FOR: [[data-points]], hard claims, base assumptions ### Tier 2: Expert Analysis - Reports from domain-specific research institutions - Books by recognized authorities in the field - Long-form investigative journalism with cited sources - Conference papers and working papers - USE FOR: interpretation, causal claims, framework building ### Tier 3: Informed Commentary - Expert blog posts and newsletters - Quality podcasts with domain experts - Think tank reports (check funding sources) - Industry publications - USE FOR: angles you hadn't considered, hypothesis generation ### Tier 4: General Media - Major news outlets - Wikipedia (good for overview, never for final claims) - Popular science writing - USE FOR: initial orientation only. always verify upstream ### Tier 5: Social/Anecdotal (lowest trust) - Twitter threads, Reddit posts - Personal anecdotes - Viral content - USE FOR: signal detection only. "people are talking about X" ≠ "X is true" ## Red Flags (downgrade any source by 1 tier if present) - No cited sources or methodology - Author has financial incentive in the conclusion - Published by organization with known agenda on the topic - Cherry-picked time frames or geographies - Conflates correlation with causation - Uses emotional language instead of evidence ## Evaluation Checklist For every key claim in your research, ask: 1. What tier is this source? 2. Can I find the same claim in a Tier 1 or Tier 2 source? 3. Who funded this research or publication? 4. What would the author lose if they were wrong? 5. Is this the BEST available evidence, or just the first I found? See [[contradiction-protocol]] when two credible sources disagree. file 4: synthesis-rules.md (combine without flattening) this is the hardest part. most people skip synthesis and just stack facts. this file forces actual thinking. # Synthesis Rules How to combine findings across lenses without losing nuance. This is the hardest part of research — most people skip it and just stack facts. ## The Synthesis Process ### Step 1: Lens Summary After completing all 6 lenses, write a ONE paragraph summary per lens: - What is this lens's main finding? - Confidence level: high / medium / low - What surprised you from this angle? ### Step 2: Agreement Map Identify where lenses AGREE: - If 4+ lenses point the same direction → high confidence finding - If 3 lenses agree → moderate confidence, worth stating with caveats - If only 1-2 lenses support a claim → hypothesis only, flag as uncertain ### Step 3: Tension Map Identify where lenses DISAGREE: - [[technical]] says X but [[economic]] says Y → this tension IS the insight - Don't resolve by picking a winner. document both positions - Ask: "under what conditions is each lens correct?" - See [[contradiction-protocol]] for resolution framework ### Step 4: Second-Order Insights The best findings come from COMBINING lenses: - "The technical data shows declining fertility, but the economic lens reveals that financial incentives haven't reversed it anywhere — which means the [[first-principles]] lens's argument about cultural shifts might be the dominant factor" - These cross-lens insights are what make this system more powerful than reading 50 articles ### Step 5: Confidence Calibration For each major finding, state: - CLAIM: what you believe is true - EVIDENCE: strongest supporting data (from [[data-points]]) - CONFIDENCE: high / medium / low - WHAT WOULD CHANGE MY MIND: the specific evidence that would reverse this conclusion ## Output Rules - Never present a single-lens finding as a conclusion - Always show the tension between lenses - Separate "what the data shows" from "what I interpret" - [[open-questions]] is as important as [[executive-summary]] - Prefer "it seems likely that X because Y and Z, though A complicates this" over "X is true" ## Anti-Patterns (things that kill good research) - Confirmation bias: only searching for evidence that supports your initial hunch - Narrative fallacy: making a clean story out of messy, contradictory data - Recency bias: overweighting the latest article over 30 years of data - Authority bias: believing something because an impressive person said it - Anchoring: letting the first number you found define your mental range file 5: contradiction-protocol.md (where the real insights hide) most research buries contradictions. this system surfaces them on purpose. contradictions are features. # Contradiction Protocol What to do when sources or lenses disagree. This is where the real insights hide — contradictions are features, not bugs. ## When Two Sources Disagree ### Step 1: Check the basics - Are they talking about the same thing? (different geographies, time periods, definitions) - Are they using the same data? (same dataset, different interpretation?) - Is one source a higher tier than the other? (see [[source-evaluation]]) ### Step 2: Find the root of disagreement Usually one of: - Different data: they're looking at different datasets → find out which is more complete/recent - Different interpretation: same data, different conclusions → examine their reasoning chain - Different scope: one is global, one is country-specific → both might be right in their context - Different timeframe: short-term vs long-term trends can look opposite - Different incentives: one has reason to spin the data → check funding, affiliations ### Step 3: Document, don't resolve In [[deep-dive]], write it as: "Source A argues [X] based on [data]. Source B argues [Y] based on [data]. The disagreement likely stems from [root cause]. Under conditions [C1], A is probably right. Under conditions [C2], B is probably right." ### Step 4: Upgrade to [[open-questions]] if unresolvable If after honest effort you can't determine who's right: - This IS a finding. "We don't know whether X or Y" is valuable intelligence - Add it to [[open-questions]] with the specific evidence needed to resolve it - This often becomes the most interesting part of the research ## When Two Lenses Disagree This is expected and healthy. Different lenses SHOULD produce tension. ## Confidence Adjustment - 2 lenses agree, 1 disagrees → investigate the disagreeing lens deeper. it might see something the others miss - All lenses agree → be suspicious. you might have confirmation bias. re-read [[contrarian]] - No lenses agree → your research question might be too broad. narrow the scope in [[index]] files 6-11: the 6 lenses every lens file follows the same structure: core questions, how to research through that angle, output format, voice, and connections to other lenses. i'll show the technical lens as the detailed example, the other 5 follow the exact same pattern, you just swap the angle. # Lens: Technical Strip away opinions and narratives. What do the numbers actually say? What mechanisms are at work? ## Core Questions 1. What does the DATA show? (not what people say about the data) 2. What are the measurable inputs and outputs? 3. What mechanisms drive the phenomenon? 4. What are the hard constraints (physical, biological, mathematical)? 5. What metrics matter most and how are they measured? 6. Where is the data incomplete or poorly measured? ## How to Research Through This Lens - Start with Tier 1 sources ONLY (see [[source-evaluation]]): raw datasets, peer-reviewed studies - Look for: time series, geographic comparisons, demographic breakdowns - Quantify everything. replace "declining" with "declined by X% between Y and Z" - Identify measurement problems: how is this data collected? what's excluded? - Find the base rates. what's "normal"? what's the historical range? ## Output Format For each finding: - METRIC: [what you measured] - VALUE: [the number] - SOURCE: [Tier 1 or 2 source with date] - TREND: [direction and rate of change] - CAVEAT: [measurement limitations] Record all hard numbers in [[data-points]]. ## Voice Clinical. precise. no emotional language. "fertility rate dropped from 2.1 to 1.6" not "fertility is collapsing." let the numbers speak. ## Connects To - [[source-evaluation]] — only high-tier sources for this lens - [[data-points]] — all numbers go here - [[economic]] — technical data often explains economic outcomes - [[first-principles]] — technical constraints define what's possible for the other 5 lenses, same structure but different core questions: economic: who pays, who profits, what incentives, what policies tried, what ROI? historical: when has this happened before, what conditions, what was tried, what worked? geopolitical: which countries most affected, what power shifts, what alliances change? contrarian: what's the mainstream narrative, what's the strongest argument against it, who benefits from the consensus? first principles: what are the absolute base-level facts, what's the simplest model that explains 80% of what we observe? file 12: source-template.md copy this for each major source you process during research. # Source Template ## Source: [Title] - Author: [who] - Date: [when published] - URL: [link] - Tier: [1-5, from [[source-evaluation]]] - Lens: [which lens found this source] ## Key Claims 1. [claim with page/section reference] 2. [claim] 3. [claim] ## Data Extracted [any numbers → also add to [[data-points]]] ## Methodology Notes [how did they arrive at their conclusions? any red flags?] ## Connections [what other sources or concepts does this relate to? use [[wikilinks]]] ## My Assessment [is this trustworthy? what's strong, what's weak?] the compound effect (why this gets better over time) this is what makes the system fundamentally different from chatgpt conversations or google research. knowledge/concepts.md and knowledge/data-points.md accumulate across ALL your research projects. after 5 projects, your ai starts with a base of 200+ verified data points and 50+ defined concepts. research-log.md tracks every project with key findings and connections. your 10th project doesn't start from zero, it starts from everything you've already learned. even better: the open-questions from one research become the index.md of the next. when i researched birth rates, one open question was "will ai automation offset labor shortages fast enough?", that's an entire research project that already has context from the demographic data. and if you want a clean slate? just upload only methodology/ and lenses/ to a fresh claude project. no knowledge/, no research-log. same system, fresh brain. how to use it method 1: claude projects (recommended). create a new project, upload all files, give it a topic with "follow the execution instructions in index.md." method 2: paste context. copy index.md + relevant lens files into any ai chat. less powerful but works anywhere. method 3: claude code + obsidian (most powerful). point claude code at your local vault. the agent reads and writes files directly. the graph evolves itself, updating knowledge files, adding new concepts, refining lenses based on output quality. fully autonomous. visualize with obsidian download obsidian (free) from obsidian.md. open your research-skill-graph folder as a vault. you immediately see a graph view showing how all your nodes connect. index.md sits at the center. the 6 lenses radiate out. methodology files connect to lenses. knowledge files connect to everything. two things this gives you: you can see which nodes are disconnected (research gaps) and spot unexpected connections between projects (compound insights). obsidian is optional, the ai reads markdown regardless. but the visual graph makes the system tangible and helps you debug it. why this beats traditional research traditional research: open 50 tabs, read 20 articles that all say the same thing, miss the contrarian view, miss the historical pattern, get lost in confirmation bias, produce a summary that sounds smart but has no structure. skill graph research: one question goes through 6 forced angles, each angle has evaluation criteria, contradictions are documented not hidden, sources are tiered, findings compound across projects. the biggest difference is the contrarian lens. traditional research almost never challenges its own findings. this system has a built-in devil's advocate that asks "what if everything i just found is wrong?", and rates the strength of the counter-argument honestly. build it in 1 hour: create the folder structure. 20 files, 6 folders. takes 5 minutes fill index.md first: this defines everything else fill the 6 lens files with the core questions and output formats fill methodology/ with source evaluation tiers and synthesis rules upload everything to a claude project give it a topic and test iterate. update the lens files based on output quality. add concepts to knowledge/ after each project the system gets better every time you use it. that's the whole point.

AIFCC — AI Fluent CxO Club

読み書きそろばん、AI。経営者が AI を自分で動かせるようになるコミュニティ。

Claude Code + Obsidian + スキルグラフでローカルリサーチエンジンを構築する方法 | AIFCC