AI 第二大腦(LLM-augmented Second Brain)
把 LLM 接到本地知識庫(如 Obsidian vault),讓 AI 持續維護一份結構化、互相連結的知識網——不只是「儲存查詢」,而是讓 LLM 持續整理、交叉引用、整合到既有網路。是 Andrej Karpathy 2026-04 LLM Wiki 模式的核心提案。
跟 BASB 的「第二大腦」不一樣
注意:本詞跟 打造第二大腦(Tiago Forte 的 BASB)不是同一概念:
| 維度 | BASB 第二大腦 | AI 第二大腦 |
|---|---|---|
| 主體 | 人腦的延伸(用 PARA + CODE 整理) | 人 + LLM 協作 |
| 維護者 | 人(用工具輔助) | LLM(人只負責策展) |
| 核心動作 | Capture / Organize / Distill / Express | Ingest / Query / Lint |
| 規模化 | 受限於人類精力 | LLM 「不會無聊、一次能動 15 個檔案」 |
| 時代 | 2022(Tiago 書) | 2026(Karpathy gist) |
兩者不互斥、可疊用——BASB 提供概念框架,AI 第二大腦提供實作引擎。Vincent vault 同時實踐兩者:用 PARA 結構(BASB)+ wiki-* skill(AI 第二大腦)。
跟 RAG 的差別
RAG vs LLM Wiki 詳細對比。要點:
“RAG retrieves from raw documents at query time. The LLM rediscovers knowledge from scratch on every question. There’s no accumulation.”
繁中:「RAG 在查詢當下從原始文件撈片段。每問一個問題,LLM 都從零重新發現知識。沒有累積。」
AI 第二大腦反過來:
“The LLM incrementally builds and maintains a persistent wiki — a structured, interlinked collection of markdown files that sits between you and the raw sources.”
繁中:「LLM 漸進式地建構並維護一個持久的 wiki——一組結構化、互相連結的 markdown 檔案,夾在你跟原始資料之間。」
Wiki 是 persistent, compounding artifact。(中:wiki 是持久且不斷複利的產物)——交叉引用已建好、矛盾已標記、綜合分析已反映你讀過的所有東西。每加一筆新資料,wiki 就更豐富。
三大核心動作
| 動作 | 做什麼 | 工具對應 |
|---|---|---|
| Ingest(攝入) | 新資料進來 → LLM 讀 → 抽 atomic 概念 → 寫 entity → 更新交叉引用(一次動 10-15 個檔案) | wiki-ingest |
| Query(查詢) | 提問 → LLM 從你 vault 已沉澱的知識合成答案,不是從訓練資料 | wiki-query |
| Lint(健檢) | 掃 vault → 抓矛盾 / 過時 / 孤兒頁 / 缺失概念 | wiki-lint |
→ 這三步驟構成飛輪——好的 query 答案應該被 file 回 wiki 變新頁(Bookkeeping by LLM 詳述),探索本身也累積複利。
「Obsidian 是 IDE,LLM 是工程師,wiki 是 codebase」
Karpathy 在原文用了一個關鍵比喻:
“In practice, I have the LLM agent open on one side and Obsidian open on the other. The LLM makes edits based on our conversation, and I browse the results in real time — following links, checking the graph view, reading the updated pages. Obsidian is the IDE; the LLM is the programmer; the wiki is the codebase.”
繁中:「實際操作是這樣:一邊開著 LLM agent,一邊開著 Obsidian。LLM 根據對話內容編輯筆記,我即時瀏覽結果——追連結、看知識圖譜、讀更新後的頁面。Obsidian 是 IDE;LLM 是工程師;wiki 是程式碼庫。」
這個比喻精準解釋了為什麼是 Obsidian+ LLM 而不是 Notion+LLM 或 ChatGPT 上傳檔:
| 角色 | 對應 |
|---|---|
| IDE(Obsidian) | 你瀏覽 / 編輯 / 看圖譜的介面 |
| 工程師(LLM) | 改碼的人,跟 codebase 直接互動 |
| Codebase(wiki) | 結構化、互連、可審查的檔案集合 |
→ 你不會叫工程師沒有 IDE 寫程式(呼應 反饋循環:你不會叫工程師沒瀏覽器做網站)。同理,AI 第二大腦需要 IDE 級的瀏覽介面。
跟 Memex 的歷史脈絡
Vannevar Bush 1945 的 As We May Think 提出 Memex 概念:
一個私人的、主動策展的知識庫,文件之間的關聯跟文件本身一樣有價值。
Bush 解決不了的問題是:誰來做維護? 人類精力不夠、會放棄。
→ 81 年後,LLM 解決了。AI 第二大腦 = Memex × LLM。
跟 Vincent vault 的關係
Vincent vault(Vincent5588_Wiki)就是 AI 第二大腦的具體實作:
PARA(BASB 框架)
└ 00-Inbox / 10-Notes / 20-Projects / ... / 50-Archive
└ raw/ — 原始素材層(不可變)
└ wiki/
└ entities/<domain>/<type>/X.md — LLM 維護
└ index.md — 主目錄
└ log.md — 變更日誌
└ daily/YYYY/MM/YYYY-MM-DD.md — 異動詳細
人的工作(Vincent):
- 策展 source(決定要 ingest 什麼)
- 提問題(驅動 query)
- 設規則(CLAUDE.md)
- 裁決矛盾(lint 找出後人決定)
LLM 的工作(Claude Code / Cowork):
- 抽 atomic 概念
- 寫 entity(含 frontmatter + 雙鏈)
- 維護交叉引用
- 健檢 + 修補
反模式(怎麼搞砸 AI 第二大腦)
- ❌ 每次都從 raw 重新撈(退回 RAG)→ 沒累積、沒複利
- ❌ AI 寫完不審(盲信機器)→ 矛盾累積、品質崩壞
- ❌ 人腦繼續做 bookkeeping(不分工)→ 違反 Karpathy 的核心建議
- ❌ 沒 lint(不健檢)→ 孤兒頁 / 矛盾無人發現
- ❌ vault 沒結構(純平面)→ LLM 找不到、ingest 寫亂
對 Vincent 工作的應用
Vincent vault 已是這個概念的最佳實踐:
| 場景 | AI 第二大腦的角色 |
|---|---|
| PAM 系統知識 | Ingest 25 份模組文件 → 92 個 entity,跨檔交叉引用一次到位 |
| Claude 學習 | Ingest 12 章學習指南 + 文章 → claude domain 60+ entity |
| CallIT 設計 | 方案設計書 ingest → 6 個 entity 含 3 個未解問題 → 業務裁決後升 stable |
| 戶外探險旅遊小程序 | 多篇文檔 ingest → 完整 lib 選型 + 平台合規 + 後端架構 |
每個 domain 都展現了 AI 第二大腦的複利:第二次 ingest 時 LLM 能在既有網路上加 backlink,不是從零開始。
相關概念
強連結(原文明確提及)
- Andrej Karpathy — LLM Wiki 模式提出者
- Bookkeeping by LLM — 核心哲學「人類不擅長 bookkeeping,AI 擅長」
- RAG vs LLM Wiki — 兩種模式對照
- Memex — 1945 歷史前身
- Vannevar Bush — Memex 提出者
- Obsidian — IDE 角色
- wiki-ingest / wiki-query / wiki-lint — 三步驟工具
- Claude Code — 實作引擎
- CLAUDE.md(專案手冊) — LLM 工作手冊
推斷連結(LLM 認為相關,待確認)
- 打造第二大腦 ?? — BASB 的人類版(互補不互斥)
- 卡片盒筆記法 ?? — Zettelkasten 也是 atomic + 互連模型
- Compounding Engineering ?? — 軟體版的「複利」哲學
深入閱讀
- 原文:Claude + Obsidian 打造 AI 第二大腦,Karpathy 的知識管理 LLM Wiki 教學|科技翰林院
- Karpathy LLM Wiki gist:https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f
- Karpathy LLM Wiki 模式
- Vannevar Bush As We May Think(1945, The Atlantic)
← 回到 wiki