LLM Wikiとは?:Karpathyが提唱した「自分専用AI知識基地」のすべてを知りたい

著者: ゆいまる‐IT界隈以外でAIを使いまくる2005年生まれ


概要

LLM Wiki(またはLLM知識ベース)は、AI研究の第一人者であるAndrej Karpathy氏が2026年4月にGitHub Gistで公開した知識管理のパターンです。

従来のRAG(Retrieval-Augmented Generation)のように、毎回質問時に生の資料から情報を探して即興で答えるのではなく、LLM(大規模言語モデル)が「永続的なWiki」を自動的に構築・維持するというアイデアです。

具体的には、ユーザーが集めた生の資料(論文、記事、メモ、音声書き起こしなど)を「raw sources」フォルダに置き、LLMがこれを読み込んでMarkdown形式のWikiページ群を作成します。

三層構造

要約ページ、人物ページ、概念ページ、比較ページ、全体合成ページなどが相互にリンクされ、知識がどんどん豊かになっていく仕組みです。三層構造が特徴:

  1. 変更不可の生資料
  2. LLMが完全に所有するWiki層
  3. LLMへの指示書(schema、例:CLAUDE.md

人間は資料の選定や方向づけだけを担当し、LLMがまとめ・更新・つなぎ合わせの面倒な作業を全部引き受けてくれます。

ObsidianなどのMarkdownビューアと組み合わせれば、グラフビューで知識のつながりを視覚的に確認しながら使える、まさに「自分専用の小さなWikipedia」が育つイメージです。

個人研究、読書ノート、ビジネスチームの社内Wiki、競合分析など幅広い用途で注目されており、公開直後から世界中で議論を呼び、日本でもClaude CodeやObsidianとの組み合わせ事例が急速に広がっています。


性能

知識の複利成長

LLM Wikiの最大の強みは「知識の複利成長」です。従来RAGでは、質問ごとにLLMが資料の断片を検索・再構築するため、規模が大きくなると合成の精度が落ちやすく、毎回同じ労力を繰り返します。

一方、LLM Wikiでは1回資料を「コンパイル」すると、以後その知識がWikiとして固定化・更新され続けます。クロスリファレンス(相互参照)はすでに張られ、矛盾点はフラグ付けされ、全体の合成は常に最新状態です。

中規模(約100資料、数100ページ程度)まではindex.mdという目次ファイルだけで十分にナビゲーション可能で、重いベクトル検索インフラを必要としません。

実装の効率性

LLMが1回のインジェスト(資料投入)で10〜15ページを更新するような作業も、最新のClaude Codeなどのエージェントなら高速にこなせます。実際のユーザー報告では、40万語規模の知識ベースをほぼ人間が一文字も打たずに構築できた事例も出ており、保守コストが極めて低いのが実感されています。

さらにLint(健全性チェック)機能で定期的に矛盾や古い記述を自動検知し、不足部分を提案してくれるため、Wikiは「放置しても腐らない」状態を保てます。出力はすべてプレーンテキストのMarkdownなので、Gitでバージョン管理でき、ObsidianのグラフビューやDataviewプラグインとも相性抜群です。

ローカル完結でプライバシーを守りつつ、必要に応じてCLI検索ツール(qmdなど)を追加して大規模化も可能です。


LLM Wikiと類似ツールの比較

LLM Wiki(Karpathy方式)は、Markdownベースの永続的知識コンパイルアプローチとして注目されています。以下に、主な類似ツールやアプローチとの違いを整理します。

1. 伝統的RAG(Retrieval-Augmented Generation)

仕組み: 生資料をチャンク分割・ベクトル埋め込みし、クエリ時に類似検索で関連部分を引っ張ってLLMに渡す。毎回即興で回答生成。

LLM Wikiとの違い: RAGはステートレス(状態を持たない)で、知識が蓄積・洗練されません。一方、LLM Wikiはインジェスト時にLLMがWikiページを積極的に作成・更新・リンクし、知識が「コンパイル」されて複利成長します。

2. Obsidian(単独) + 手動Zettelkasten

仕組み: ローカルMarkdownノートアプリ。双方向リンクとグラフビューで知識を繋ぐ。プラグイン(Dataviewなど)で拡張。

LLM Wikiとの違い: Obsidianは人間が主に作成・メンテナンスします。LLM WikiはLLMが自動で要約・更新・リンク・矛盾解決を担います。Karpathy方式はObsidianを「フロントエンド」として推奨しており、相性抜群です。

3. Notion / Notion AI

仕組み: クラウドベースのオールインワンワークスペース。データベース・Wiki・AI自動生成機能。

4. Logseq / Roam Research(アウトライナー型)

仕組み: ブロックベースの双方向リンクノート。クエリ機能で動的集約。

5. 専用AI知識ツール(Dume Cowork、Mem、Read AIなど)

仕組み: LLMを活用した自動整理・検索ツール。PDF対応やノーコードUIを売りにするものが多い。

6. その他のオープンソース/拡張(LlamaIndex、Fabric、qmdなど)

LlamaIndexなどはRAGフレームワークで、LLM Wikiの補完として使えます。qmdなどはMarkdown検索ツールで、LLM Wikiの大規模化に有効です。


どんな悩みを解決するか

多くの人が抱える「知識の墓場問題」を根本的に解決します。資料を溜め込んでも、散らばったまま検索しにくく、つながりがわからない、時間が経つと内容を忘れる——そんなフラストレーションです。

LLM Wikiはこれを逆転させます。LLMが「疲れない司書」となって、資料を読み込み、要約し、既存ページを更新し、矛盾を指摘し、関連を自動リンクします。

要するに、AIを「一時的な検索ツール」から「永続的な知識パートナー」に変えることで、情報過多時代の本質的な悩みを解消してくれるのです。


活用方法

セットアップ

導入は簡単。基本はフォルダ構成だけ準備すればOK。以下の3つを用意し、Obsidianで全体を開きます:

  • raw/(生資料)
  • wiki/(生成されたWiki)
  • schema/(LLM指示書)

schemaファイルには「インジェスト時のルール」「ページの命名規則」「矛盾時の扱い方」などを詳細に書いておき、LLMと一緒に進化させていきます。

ワークフロー(3つの操作)

1. Ingest(投入)

新しい資料をraw/に入れ、LLM(Claude Codeや類似エージェント)に「この資料を処理して」と指示します。LLMが要約を作成し、関連ページを更新し、index.mdとlog.mdをメンテナンスします。1件ずつ丁寧に確認しながら進めるもよし、まとめてバッチ処理するもよし。

英語での運用について:英語がいいらしいので、著者は翻訳しておくようにしているとのこと。

2. Query(質問)

Wikiに対して質問すると、LLMがindex.mdを参照して関連ページを読み、引用付きで回答します。良い回答は「新しいWikiページ」として保存して蓄積します。

3. Lint(点検)

定期的に「Wikiの健康診断」を依頼します。矛盾、古い情報、孤立ページ、不足概念を指摘してもらい、次のアクションを提案してもらいます。

実践ツール

Claude Code + Obsidianの組み合わせ

人気なのはClaude Code+Obsidianの組み合わせです:

  • Obsidian Web Clipper:Web記事をMarkdown化して即投入
  • 画像保存:画像もローカル保存してLLMが参照可能に
  • Dataviewプラグイン:動的にページを集約・可視化

自動化

オープンソースのCLIツール(例:llm-wiki-compilerなど)を使えば、コマンド1発でインジェストからコンパイルまで自動化も可能です。Git連携すれば変更履歴も完璧に残せます。

初心者ならまずは小規模(10資料程度)から始め、schemaをLLMと共同編集しながらカスタマイズしていくのがおすすめです。


Karpathyの他の主なAI提唱・コンセプト

(Software 1.0/2.0/3.0、Vibe Coding、AutoResearch 等の解説が続く。llm-wiki 本題からは離れるため要約のみ)

Software 3.0(2025年YC AI Startup School の keynote「Software Is Changing (Again)」): プロンプト(自然言語、特に英語)がプログラムになる。LLM が新しい「コンピュータ」。

AutoResearch / The Karpathy Loop(2026年3月頃): AIエージェントが自律的に研究・実験をループさせる仕組み。nanochat で 2日間約700実験 → 20件の有効改善、Time-to-GPT-2 2.02時間 → 1.80時間(11%高速化)。Shopify CEO 事例: 1晩で37実験 → 19%性能向上。


著者の感想

著者は以下のようにコメントしています:

「これ使ってから、かなり知識の選定がしやすくなった。渡す知識がゴミすぎるとやっぱり出てくる結果もしょうもない。ガベージいん、ガベージあうと。」

つまり、LLM Wikiの品質は投入する生資料の品質に大きく依存するということです。良い資料を厳選して投入することが、より良いWikiの構築につながります。


参考リンク

公式のGistはKarpathy氏のGitHub Gistで公開されています: https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f

また、スキル定義ファイルについては以下も参照: https://github.com/forrestchang/andrej-karpathy-skills