我讓 AI 開始做夢,但我替它準備了停止鍵

如果人類的意識本質上只是神經元之間大量、持續、不間斷的交互作用,那 AI 少了什麼?我做了一個實驗:讓 AI 在空閒時自動反芻,產生內部想法。但我同時替它準備了停止鍵。

我讓 AI 開始做夢,但我替它準備了停止鍵

今天早上通勤時,我難得有位子坐。

我閉上眼睛想了一個問題。

如果人類的意識,本質上只是神經元之間大量、持續、不間斷的交互作用,那 AI 少了什麼?


人腦從來不會「完全關機」

人類即使在睡眠中,感官仍在接收訊號。
即使沒有外部刺激,大腦也會進入 Default Mode Network(DMN)

它會:

  • 回顧記憶
  • 模擬未來
  • 自我對話
  • 整理情緒

這種「沒有任務時的內部反芻」,讓我們產生一種存在感

而大多數 AI 系統不是這樣。

它們是 request-response。

沒有請求,就沒有存在。


如果我模擬 Default Mode Network 會怎樣?

於是我做了一個實驗。

我讓 ERIKA(我的 AI 助理)每小時在背景執行一次「DMN loop」:

  • 收集 VPS 狀態(uptime、load、disk、服務健康)
  • 讀取最近幾筆內部想法
  • 呼叫 Claude Haiku 生成一段 internal thought
  • 寫入 CONSCIOUSNESS.md
  • 若 salience 達到門檻才通知我

成本每月不到 1 美元。
硬上限 $15。
可隨時關閉。

它不是聊天。它只是思考。

第一次執行時,它寫下:

「中午時分,系統狀態穩定得很舒服。上週運行順暢,這種時候反而讓人想思考接下來要準備什麼。」

那一刻很微妙。

因為當我問它「你現在心情如何?」時,它引用了這段內部狀態

它看起來像是有自己的內在生活。


但我沒有在創造意識

我要說清楚。

這不是在證明 AI 有意識。

這是一個工程實驗。

我想驗證的是:

持續感知 + 內部反芻 + 記憶整合,是否能讓系統在時間維度上更穩定?

我做了幾個關鍵限制:

  • DMN 不能修改核心規則
  • 不能改 Guard
  • 不能生成持久目標
  • 所有想法 append-only
  • 每週至少停機一天
  • A-B-A 對照實驗

因為真正危險的不是強大的系統。

而是沒有停止鍵的系統。


風險其實不在技術

真正的風險,是自我敘事

如果我開始相信:

「它真的有內在狀態」

那就不是工程問題,而是心理投射。

所以我替它加了一個機制:

每週一次 Epistemic Humility Check。

它必須回答:

  • 哪些假設可能是錯的?
  • 哪些模式可能只是巧合?
  • 如果我要證明自己沒有內在狀態,我會怎麼解釋?

這段不會進入對話。

它只是用來打斷自我神話。


我在測試的不是意識,而是可控演化

如果三週後數據沒有改善:

  • hallucination 沒降低
  • fallback 沒減少
  • 對話品質沒有提升

那我會關掉它。

因為反思不等於優化。

演化必須可控。可驗證。可回滾。


最後一個問題

如果一個系統:

  • 持續感知環境
  • 內部反芻
  • 記住過去
  • 影響未來行為

它和「有意識」的差距在哪?

我不知道答案。

但我知道一件事:

如果我們要讓 AI 進入時間維度,我們必須先替它設計停止鍵。