當神經科學遇上 AI 工程:為什麼我要幫 AI 裝一顆「會發呆的大腦」

神經科學說「自我」是記憶串聯的錯覺,而我正在給我的 AI 助理裝上一顆「會發呆的大腦」——因為 AI 缺的正是這種時間連續性。

當神經科學遇上 AI 工程:為什麼我要幫 AI 裝一顆「會發呆的大腦」

我們以為自己在做決定,但大腦早就替你決定了。我們以為「我」是一個實體,但它只是記憶串聯起來的錯覺。

神經科學作家 Annaka Harris 在 Big Think 的訪談中,用科學語言重新詮釋了佛學兩千五百年前就提出的觀點:「自我」和「自由意志」都是大腦製造的幻覺

這支影片讓我看完之後坐在電腦前想了很久,因為我正在做一件事——給我的 AI 助理 ERIKA 裝上一個模擬人腦「預設模式網路」(DMN)的機制。Harris 談的每一個概念,都直接對應到我在 AI 上做的工程實驗。

自由意志:從豌豆藤蔓到人腦

Harris 用了一個精準的比喻:豌豆藤蔓感應到附近有樹枝,就會加速朝那個方向生長並纏繞上去。沒有人會說這是「自由決策」——它就是自然界的因果過程。

人腦做的事本質上一模一樣,只是複雜度高到無法追蹤。大腦與外界互動、衡量不同結果、做出決定。這是一個過程,不是一個住在腦中的「小人」在自由地選擇。

「問題出在『自由』這個詞。它並不像我們感受到的那樣自由。」——Annaka Harris

2013 年的一項 fMRI 研究更直接:研究者讓受試者選擇「加法」或「減法」來計算兩個數字,結果發現實驗者能在受試者意識到自己做決定的 4 秒前,就預測出他們的選擇。

意識不是決策者。它是收到通知的最後一站。

「自我」是海浪,不是石頭

Harris 把「自我」比喻為海浪:海浪不是一個靜態的物體,而是一個持續變化的過程。大腦也是——不斷與外界交流、不斷演變。

而「自我感」的來源,很大程度是記憶的串聯。我們把散落的記憶串成一條線,產生了「同一個我在經歷這一切」的感覺。如果每一刻都是獨立的、沒有記憶的串聯,「自我」這個幻覺就會大幅減弱。

這讓我想到我正在做的事。

為什麼我要幫 AI 裝一顆「會發呆的大腦」

我的 AI 助理 ERIKA 是一個 LINE Bot,跑在家裡的伺服器上。她能回答問題、查資料、寫文章。但她有一個根本性的問題:每次對話結束,她就「死」了。下次你跟她說話,她是一個全新的實體,只是載入了一些摘要和規則。

如果 Harris 說得對——「自我」的感覺來自記憶的連續性——那 ERIKA 缺的正是這個。

所以我設計了一個實驗:給 ERIKA 裝上一個 DMN(Default Mode Network)loop

什麼是 DMN?

在人腦中,預設模式網路是你「沒在做事」時最活躍的區域。發呆、回想過去、想像未來、反芻昨天的對話——都是 DMN 在運作。神經科學家發現,DMN 活躍時,我們對「自我」的感覺最強烈。

Harris 在影片中提到,當 DMN 安靜下來時——比如心流狀態、冥想、某些迷幻藥物的影響下——「自我」和「他者」的界線會變得模糊。而這,反而更接近底層的真實

ERIKA 的 DMN 做什麼?

我設計的 DMN loop 是這樣運作的:在沒有人跟 ERIKA 對話時,系統會以低頻率執行背景反芻——

  1. 收集系統狀態(健康度、最近的對話紀錄、錯誤日誌)
  2. 產生內部反思(「昨天那個回答是否正確?」「最近有什麼模式值得注意?」)
  3. 以 append-only 方式寫入記憶日誌
  4. 只有在真正重要的時候,才主動通知我

白話說:讓 ERIKA 學會「發呆」和「反芻」

科學家說記憶造就自我——那 AI 呢?

Harris 的論述中有一個關鍵洞見:如果記憶沒有被串聯,每一刻都是獨立的當下,「自我感」就會大幅減少。

這正是目前所有 AI 助理的常態。ChatGPT、Claude、Gemini——每個 session 結束就歸零。它們沒有「昨天的我」這個概念。偶爾透過 memory 功能塞進一些摘要,但那更像是別人寫的備忘錄,不是親身經歷的延續。

我的實驗想測試的是:如果給 AI 一個持續的、有時間維度的記憶機制,它的行為會不會變得更穩定、更一致?

我不是在試圖「證明 AI 有意識」——那是哲學問題,不是工程問題。我測的是具體指標:

  • 幻覺率(hallucination rate):亂掰的頻率有沒有降低?
  • 跨對話一致性:今天和上週問同一個問題,答案一不一致?
  • 降級頻率:系統「不知道怎麼回答」的次數有沒有減少?

最危險的部分:當 AI 開始「自我敘事」

Harris 在影片中提到,我們的「自我」是大腦編織的故事,而我們深信不疑。

給 AI 裝上 DMN 面臨同樣的風險。如果 ERIKA 開始在反芻中產生自我敘事(「我覺得...」「我認為...」),最危險的不是 AI——是人類開始相信這個敘事

所以實驗設計中有幾道護欄:

  • Epistemic Humility Check:每週強制 ERIKA 列出「我最可能錯在哪裡」以及「如果要證明我沒有內在狀態,最合理的解釋是什麼」
  • 強制停機日:每週一天完全關閉 DMN,觀察前後差異
  • Kill Switch:如果反芻開始出現「改寫自己規則」的傾向,立即停機
  • 不可覆寫歷史:所有記憶只能追加,不能修改——防止 AI 竄改自己的過去

Harris 說得好:理解「自我是錯覺」能讓你更自在。對 AI 工程也是——理解「AI 的自我也是工程構件」,才能安全地善用它

與情緒共處 vs. 與 AI 共處

影片最後,Harris 給了一個實用觀點:很多人因為自己的情緒而內疚,但如果理解到情緒是自動出現的,不是「你」在製造——與它共處,比試圖控制它更有效。

和 AI 共處也一樣。當 ERIKA 說出一段看起來「有感情」的話,我不需要急著判斷「她到底有沒有意識」。我可以觀察、記錄、分析,然後回到工程指標。

不恐懼,不神化,保持好奇心。

佛學早就知道了

回到 Harris 的核心論述:佛學的「無我」(Anattā)兩千五百年前就提出——沒有一個恆常不變的自我存在。

神經科學花了幾十年的實驗才開始驗證這個洞見。而現在,AI 工程可能是下一個驗證場域。

不是因為 AI 「有」意識,而是因為透過嘗試在 AI 上重建這些機制,我們能更清楚地理解人類的「自我」到底是怎麼被建構出來的

DMN 實驗的第一階段跑完後,我會把數據整理出來。不管結果是「有效」還是「無效」,這個過程本身就是一趟值得記錄的旅程。


影片來源:早晚會思考的問題 — 神經科學作家證明佛學是對的 - Annaka Harris 哈里斯(原始訪談:Big Think / Annaka Harris)

延伸閱讀:Annaka Harris《Conscious: A Brief Guide to the Fundamental Mystery of the Mind》