我不喜歡 Sam Altman,但他的魔戒論是對的
4 月 10 日凌晨,有人往 Sam Altman 家丟了汽油彈。我不同情他,但讀完他的回應,我改變了一些想法。不是對他這個人,而是對他說的話。
4 月 10 日凌晨 3:45,有人往 Sam Altman 的舊金山住家丟了一顆汽油彈。
我看到新聞的第一反應不是同情,是「嗯,不意外」。
但讀完他事後發的那篇 blog,我改變了一些想法。不是對他這個人,而是對他說的話。
先說清楚:為什麼我不信任 Sam Altman
這不是跟風。我不信任他是有具體原因的。
2023 年 OpenAI 董事會事件,他被踢出去又被請回來的過程,暴露了一件事:這個人的權力運作方式跟他嘴上說的「AI 民主化」完全矛盾。他自己在 blog 裡承認自己 conflict-averse(迴避衝突),導致跟董事會的關係惡化。但 conflict-averse 這個詞用在一個掌控最強 AI 公司的 CEO 身上,聽起來不像自省,更像是在降低你的期待值。
「我是一個在極複雜局面中的有缺陷的人。」
這句話的公關含量太高了。每個矽谷 CEO 在出事之後都會說類似的話。它的功能不是反省,是讓你覺得「好吧,他也是人」,然後放過他。
OpenAI 從非營利轉營利的過程、跟 Elon Musk 的訴訟、內部安全團隊的出走——這些事情加在一起,讓我很難相信 Sam Altman 個人是「AI 民主化」的正確代言人。
但他說的三件事是對的
這就是讓人不舒服的地方:你可以不信任一個人,但他說的話可能是對的。
1. AGI 是真的,而且很快
Altman 在文中說,2026 年可能會出現「能自行發現新洞見」的系統。這不是畫大餅。看看現在 Claude、GPT、Gemini 的進化速度,再看看各家在 reasoning model 上的投入——AGI 的到來不是「會不會」的問題,是「什麼時候」的問題。
台灣技術圈還在討論「AI 會不會取代工程師」,但全球的對話已經進入「AGI 來了之後社會怎麼運作」。我們落後了一整個層級的討論。
2. 恐懼是合理的
Altman 沒有像典型矽谷樂觀主義者那樣說「別擔心,AI 會讓一切更好」。他明確說:
社會正在經歷巨大轉變。恐懼是合理的。
這句話從他嘴裡說出來,份量不一樣。因為他是最有動機淡化風險的人。當最該報喜的人開始承認風險,你應該認真聽。
3. 權力不能集中在少數 AI 公司手上
這是他整篇文章最核心的論點,也是我最同意的一句:
我不認為讓少數幾家 AI 實驗室來決定我們未來的形狀是正確的。
諷刺嗎?極度諷刺。OpenAI 本身就是「少數幾家」裡最有影響力的一家。Sam Altman 自己就站在權力最集中的位置上說「權力不能集中」。
但這不代表這句話是錯的。
魔戒比喻:精準,卻也暴露了他自己
Altman 把 AGI 比喻成魔戒。他說:
看到 AGI 之後就回不去了。它會讓人做出瘋狂的事。
但他強調,問題不是 AGI 本身——而是「成為控制 AGI 的那個人」這種慾望。他的解法是:不要讓任何人持有戒指,用民主化和個人賦權來分散權力。
這個比喻精準到讓人不舒服。因為如果你讀過《魔戒》,你會知道:每一個說「我不會被戒指腐化」的人,最後都被腐化了。Boromir 也覺得自己是為了好的理由才想拿戒指。
Sam Altman 戴著戒指,告訴全世界「不該有人戴戒指」。
我選擇相信這個論點,但不相信說這句話的人有能力做到。
台灣從業者:我們不是旁觀者
大部分台灣技術從業者看這種新聞的反應是「矽谷的事,跟我無關」。
但如果你正在用 Claude 寫 code、用 GPT 做產品、用 Gemini 跑分析,你就已經在這個生態系裡了。AGI 的權力集中問題不是別人的問題。你選擇用誰的模型、怎麼建構你的 AI 系統、有沒有保留切換供應商的能力——這些都是你在這場權力遊戲裡的選擇。
我自己的做法是:永遠不綁死任何一家。Claude 是好工具,但我同時用 Gemini、用 Ollama 本地模型、用開源方案。不是因為我不信任 Anthropic,而是因為「可替換性」本身就是一種權力。
當 Sam Altman 說「權力不能集中」時,他或許做不到。但你可以。
一句話結論
下次看到矽谷大佬的宣言,試著把「人」和「論點」拆開。
你可以不喜歡 Sam Altman,同時認真對待他說的話。這不是矛盾,這是成熟。
汽油彈解決不了 AGI 的問題。但照單全收矽谷敘事也不行。
我是江中喬,一位具有 TPM 與產品管理背景的 AI 系統建構者,目前專注於 AI 認知增強系統與多 Agent 協作架構的設計與實踐。
延伸閱讀:Sam Altman 原文 / 紐約客調查