AI 已經不是模型問題,是體制問題
AI 的技術突破已經足夠,真正的瓶頸是社會體制和信任模型能否跟上。
技術的天花板已經不在實驗室
Marc Andreessen 最近在 Latent Space 的討論裡說了一個我一直在想的事:AI 的突破已經跨越了模型層級。再堆砌更多參數、更複雜的架構,已經不是主要瓶頸了。
真正的瓶頸移到了上層——社會體制、監管框架、組織結構,以及人們對 AI 系統的信任模型。這是整個社會吸收技術變革的速度問題。
為什麼「這次真的不一樣」
Andreessen 提到「This Time Is Different」。過去的技術革命(互聯網、移動、雲端)都逐漸滲透,但 AI 不同。
AI 的能力邊界在短時間內擴張得太快,快到很多決策系統還沒反應過來。一個模型從「能寫點文案」升級到「能幫你做策略決策」,中間沒有太多的緩衝期。技術本身已經 ready,但使用它的人、組織、法律框架都還沒 ready。
瀏覽器死了,但問題不在瀏覽器
Andreessen 在討論「The Death of the Browser」時,核心是說:當 AI 能直接理解和執行用戶意圖時,傳統的「點擊網頁」這個交互模式就不再是必需的中介了。
但瀏覽器真的會死嗎?不一定。更可能的是瀏覽器會變成後台基礎設施,而不是前台交互界面。就像 HTTP 沒有死,只是從「用戶看得見的東西」變成了「系統底層」。
真正的問題是:當交互模式改變時,誰來決定 AI 要做什麼?用戶的隱私邊界在哪?AI 的決策過程要不要透明?
Pi 和 OpenClaw 代表什麼
Pi(可能指的是 Anthropic 或其他 AI 助手)和 OpenClaw(開放的推理框架)都指向同一個方向:AI 系統需要更多的「可驗證性」和「可控性」。
一個能力很強但黑盒的系統,再聰明也沒人敢大規模用。反過來,一個能力稍弱但邏輯清晰、結果可驗證的系統,反而更容易被信任和採納。
接下來的 AI 演進,優化目標會從「精度」逐漸移向「可解釋性」和「可控性」。
我怎麼看
Andreessen 的觀點戳到了我最近在思考的一個問題:為什麼有些公司的 AI 項目看起來技術指標不錯,但就是推不動業務?
答案往往不是「模型不夠好」,而是「組織還沒決定好怎麼信任它」。信任是一個組織和文化問題。
如果你現在在做 AI 相關的產品或決策,問自己:我在優化的是模型精度,還是在優化組織對這個系統的信任度?這兩者現在的優先級可能已經反過來了。
我是江中喬,一位具有 TPM 與產品管理背景的 AI 系統建構者,目前專注於 AI 認知增強系統與多 Agent 協作架構的設計與實踐。