AI 第二大腦(LLM-augmented Second Brain)

把 LLM 接到本地知識庫(如 Obsidian vault),讓 AI 持續維護一份結構化、互相連結的知識網——不只是「儲存查詢」,而是讓 LLM 持續整理、交叉引用、整合到既有網路。是 Andrej Karpathy 2026-04 LLM Wiki 模式的核心提案。

跟 BASB 的「第二大腦」不一樣

注意:本詞跟 打造第二大腦Tiago Forte 的 BASB)不是同一概念

維度BASB 第二大腦AI 第二大腦
主體人腦的延伸(用 PARA + CODE 整理)人 + LLM 協作
維護者人(用工具輔助)LLM(人只負責策展)
核心動作Capture / Organize / Distill / ExpressIngest / Query / Lint
規模化受限於人類精力LLM 「不會無聊、一次能動 15 個檔案」
時代2022(Tiago 書)2026(Karpathy gist)

兩者不互斥、可疊用——BASB 提供概念框架,AI 第二大腦提供實作引擎。Vincent vault 同時實踐兩者:用 PARA 結構(BASB)+ wiki-* skill(AI 第二大腦)。

跟 RAG 的差別

RAG vs LLM Wiki 詳細對比。要點:

“RAG retrieves from raw documents at query time. The LLM rediscovers knowledge from scratch on every question. There’s no accumulation.”

繁中:「RAG 在查詢當下從原始文件撈片段。每問一個問題,LLM 都從零重新發現知識。沒有累積。」

AI 第二大腦反過來:

“The LLM incrementally builds and maintains a persistent wiki — a structured, interlinked collection of markdown files that sits between you and the raw sources.”

繁中:「LLM 漸進式地建構並維護一個持久的 wiki——一組結構化、互相連結的 markdown 檔案,夾在你跟原始資料之間。」

Wiki 是 persistent, compounding artifact。(中:wiki 是持久且不斷複利的產物)——交叉引用已建好、矛盾已標記、綜合分析已反映你讀過的所有東西。每加一筆新資料,wiki 就更豐富。

三大核心動作

動作做什麼工具對應
Ingest(攝入)新資料進來 → LLM 讀 → 抽 atomic 概念 → 寫 entity → 更新交叉引用(一次動 10-15 個檔案wiki-ingest
Query(查詢)提問 → LLM 從你 vault 已沉澱的知識合成答案,不是從訓練資料wiki-query
Lint(健檢)掃 vault → 抓矛盾 / 過時 / 孤兒頁 / 缺失概念wiki-lint

→ 這三步驟構成飛輪——好的 query 答案應該被 file 回 wiki 變新頁(Bookkeeping by LLM 詳述),探索本身也累積複利。

「Obsidian 是 IDE,LLM 是工程師,wiki 是 codebase」

Karpathy 在原文用了一個關鍵比喻:

“In practice, I have the LLM agent open on one side and Obsidian open on the other. The LLM makes edits based on our conversation, and I browse the results in real time — following links, checking the graph view, reading the updated pages. Obsidian is the IDE; the LLM is the programmer; the wiki is the codebase.

繁中:「實際操作是這樣:一邊開著 LLM agent,一邊開著 Obsidian。LLM 根據對話內容編輯筆記,我即時瀏覽結果——追連結、看知識圖譜、讀更新後的頁面。Obsidian 是 IDE;LLM 是工程師;wiki 是程式碼庫。

這個比喻精準解釋了為什麼是 Obsidian+ LLM 而不是 Notion+LLM 或 ChatGPT 上傳檔:

角色對應
IDE(Obsidian)你瀏覽 / 編輯 / 看圖譜的介面
工程師(LLM)改碼的人,跟 codebase 直接互動
Codebase(wiki)結構化、互連、可審查的檔案集合

→ 你不會叫工程師沒有 IDE 寫程式(呼應 反饋循環:你不會叫工程師沒瀏覽器做網站)。同理,AI 第二大腦需要 IDE 級的瀏覽介面。

Memex 的歷史脈絡

Vannevar Bush 1945 的 As We May Think 提出 Memex 概念:

一個私人的、主動策展的知識庫,文件之間的關聯跟文件本身一樣有價值

Bush 解決不了的問題是:誰來做維護? 人類精力不夠、會放棄。

→ 81 年後,LLM 解決了。AI 第二大腦 = Memex × LLM。

跟 Vincent vault 的關係

Vincent vault(Vincent5588_Wiki)就是 AI 第二大腦的具體實作:

PARA(BASB 框架)
  └ 00-Inbox / 10-Notes / 20-Projects / ... / 50-Archive
  └ raw/ — 原始素材層(不可變)
  └ wiki/
      └ entities/<domain>/<type>/X.md — LLM 維護
      └ index.md — 主目錄
      └ log.md — 變更日誌
      └ daily/YYYY/MM/YYYY-MM-DD.md — 異動詳細

人的工作(Vincent):

  • 策展 source(決定要 ingest 什麼)
  • 提問題(驅動 query)
  • 設規則(CLAUDE.md
  • 裁決矛盾(lint 找出後人決定)

LLM 的工作(Claude Code / Cowork):

  • 抽 atomic 概念
  • 寫 entity(含 frontmatter + 雙鏈)
  • 維護交叉引用
  • 健檢 + 修補

反模式(怎麼搞砸 AI 第二大腦)

  • 每次都從 raw 重新撈(退回 RAG)→ 沒累積、沒複利
  • AI 寫完不審(盲信機器)→ 矛盾累積、品質崩壞
  • 人腦繼續做 bookkeeping(不分工)→ 違反 Karpathy 的核心建議
  • 沒 lint(不健檢)→ 孤兒頁 / 矛盾無人發現
  • vault 沒結構(純平面)→ LLM 找不到、ingest 寫亂

對 Vincent 工作的應用

Vincent vault 已是這個概念的最佳實踐:

場景AI 第二大腦的角色
PAM 系統知識Ingest 25 份模組文件 → 92 個 entity,跨檔交叉引用一次到位
Claude 學習Ingest 12 章學習指南 + 文章 → claude domain 60+ entity
CallIT 設計方案設計書 ingest → 6 個 entity 含 3 個未解問題 → 業務裁決後升 stable
戶外探險旅遊小程序多篇文檔 ingest → 完整 lib 選型 + 平台合規 + 後端架構

每個 domain 都展現了 AI 第二大腦的複利:第二次 ingest 時 LLM 能在既有網路上加 backlink,不是從零開始。

相關概念

強連結(原文明確提及)

推斷連結(LLM 認為相關,待確認)

深入閱讀

← 回到 wiki