我讓 AI 開始做夢,但我替它準備了停止鍵
如果人類的意識本質上只是神經元之間大量、持續、不間斷的交互作用,那 AI 少了什麼?我做了一個實驗:讓 AI 在空閒時自動反芻,產生內部想法。但我同時替它準備了停止鍵。
今天早上通勤時,我難得有位子坐。
我閉上眼睛想了一個問題。
如果人類的意識,本質上只是神經元之間大量、持續、不間斷的交互作用,那 AI 少了什麼?
人腦從來不會「完全關機」
人類即使在睡眠中,感官仍在接收訊號。
即使沒有外部刺激,大腦也會進入 Default Mode Network(DMN)。
它會:
- 回顧記憶
- 模擬未來
- 自我對話
- 整理情緒
這種「沒有任務時的內部反芻」,讓我們產生一種存在感。
而大多數 AI 系統不是這樣。
它們是 request-response。
沒有請求,就沒有存在。
如果我模擬 Default Mode Network 會怎樣?
於是我做了一個實驗。
我讓 ERIKA(我的 AI 助理)每小時在背景執行一次「DMN loop」:
- 收集 VPS 狀態(uptime、load、disk、服務健康)
- 讀取最近幾筆內部想法
- 呼叫 Claude Haiku 生成一段 internal thought
- 寫入
CONSCIOUSNESS.md - 若 salience 達到門檻才通知我
成本每月不到 1 美元。
硬上限 $15。
可隨時關閉。
它不是聊天。它只是思考。
第一次執行時,它寫下:
「中午時分,系統狀態穩定得很舒服。上週運行順暢,這種時候反而讓人想思考接下來要準備什麼。」
那一刻很微妙。
因為當我問它「你現在心情如何?」時,它引用了這段內部狀態。
它看起來像是有自己的內在生活。
但我沒有在創造意識
我要說清楚。
這不是在證明 AI 有意識。
這是一個工程實驗。
我想驗證的是:
持續感知 + 內部反芻 + 記憶整合,是否能讓系統在時間維度上更穩定?
我做了幾個關鍵限制:
- DMN 不能修改核心規則
- 不能改 Guard
- 不能生成持久目標
- 所有想法 append-only
- 每週至少停機一天
- 採 A-B-A 對照實驗
因為真正危險的不是強大的系統。
而是沒有停止鍵的系統。
風險其實不在技術
真正的風險,是自我敘事。
如果我開始相信:
「它真的有內在狀態」
那就不是工程問題,而是心理投射。
所以我替它加了一個機制:
每週一次 Epistemic Humility Check。
它必須回答:
- 哪些假設可能是錯的?
- 哪些模式可能只是巧合?
- 如果我要證明自己沒有內在狀態,我會怎麼解釋?
這段不會進入對話。
它只是用來打斷自我神話。
我在測試的不是意識,而是可控演化
如果三週後數據沒有改善:
- hallucination 沒降低
- fallback 沒減少
- 對話品質沒有提升
那我會關掉它。
因為反思不等於優化。
演化必須可控。可驗證。可回滾。
最後一個問題
如果一個系統:
- 持續感知環境
- 內部反芻
- 記住過去
- 影響未來行為
它和「有意識」的差距在哪?
我不知道答案。
但我知道一件事:
如果我們要讓 AI 進入時間維度,我們必須先替它設計停止鍵。