當管理開始被自動化,CEO 會先被改寫
與其把『AI 當 CEO』當成八卦,不如把它當成一個訊號:管理正在被系統化,而治理與責任的問題會更尖銳。
最近看到一段在社群上被大量轉傳的說法:Sam Altman 在訪談裡提到,如果 AGI 的目標包含「能管理一家公司」,那麼 CEO 這個職位理論上也該被自動化。
先講清楚:這類二手轉述很容易被誇大或斷章取義。我沒打算把它當成新聞事實來報;我更在意的是,這個話題為什麼會讓一堆人瞬間有感。
「AI 當 CEO」真正戳到的痛點
在產業裡工作久了,你會發現很多管理決策其實不是「多聰明」,而是「多一致」。
- KPI 怎麼訂
- 資源怎麼分
- 哪些案子要砍、哪些要加碼
- 人才升遷與淘汰的規則
這些事情最難的地方往往不是算不出答案,而是人類很難在壓力、政治、情緒、短期誘惑之下維持一致的決策邏輯。
如果有人真的想把「管理」自動化,他追求的很可能不是一個更有同理心的主管,而是一個更不會偏航的決策系統。
對公司來說,誘惑很大
把管理決策做成系統化流程,對企業有三個立即的吸引力:
- 可預期:決策邏輯被明確化,團隊比較知道怎麼「玩這個遊戲」。
- 可複製:擴張時不用完全依賴少數明星主管的直覺與手感。
- 可稽核:決策可以追溯,至少在表面上更容易對股東、董事會交代。
而且別忘了:大公司最擅長的事情之一,就是把原本仰賴人的能力,拆成流程、拆成制度、再拆成系統。
但這也會把風險放大到新的等級
「CEO 被 AI 取代」如果真的發生,最可怕的不是它做錯一次決策;最可怕的是它可以用一個看似合理、統計上漂亮的方式,長期把公司帶往一條錯的路。
因為在很多真實世界的決策裡,資料本身就帶著偏差:
- 你量得到的,常常只是短期結果
- 你量不到的,可能是文化、信任、創造力、風險偏好
- 你用來訓練的歷史資料,往往反映的是舊時代的規則
當「管理」變成模型輸出,誰來定義目標函數?誰來決定模型犯錯時的責任歸屬?誰來判定它的「成功」是不是在掏空長期競爭力?
我更在意的問題:我們正在把管理變成一種產品
不管那段 Altman 的說法原意是什麼,市場已經在往同一個方向走:
- 招募與績效的工具更像演算法
- 預算與資源分配更像儀表板
- 管理者被要求用「可量化」來證明價值
最後會出現一種新的分工:少數人負責定義方向與邊界,大量日常管理交給系統自動跑。
那時候 CEO 的角色也許不會消失,但會變得更像「治理架構的設計師」——負責定義什麼能被自動化、什麼必須保留人類裁量。
原文連結:Threads 貼文