AI工具

看完《AI Agents Fundamentals》後我更確定:PM 的戰場從介面轉向信任

看完《AI Agents Fundamentals》後我更確定:PM 的戰場從介面轉向信任

最近讀了 Tina Huang 的《AI Agents Fundamentals》整理,裡面有幾個觀察很值得 PM 反覆咀嚼。 https://www.youtube.com/watch?v=qU3fmidNbJE 我不想把它寫成「五點筆記」,而是想把它翻成一個更接地氣的問題: 當產品從「讓人操作」變成「讓 AI 代替人操作」,你還在設計什麼? 答案很可能不再是按鈕、流程與頁面,而是:工作流、決策與信任。 ## 1)循環勝過規模:產品價值會落在「自我修正」能力 很多人第一反應是追求更大的模型。 但在 agent 系統裡,真正能提升穩定度的,往往是「循環」: * 先做一版 * 自己檢查 * 根據錯誤修正 * 再輸出 這其實是把工程裡的
江中喬
為什麼「寫程式很強、寫作變無聊」:模型在能力取捨上的真相

為什麼「寫程式很強、寫作變無聊」:模型在能力取捨上的真相

最近不少人都有同一種體感:某些新一代模型在「工程/推理/解題」上強得誇張,但拿來寫文案、寫故事、寫一段有溫度的文字時,卻變得更平、更保守、更像把句子排整齊的理工腦。 這種落差常被形容成「技能樹點歪了」。我覺得更精準的說法是:模型能力本來就不是單一維度,產品團隊做的其實是取捨。 ## 能力不是一條進度條,而是一張資源分配表 我們很容易把模型升級想成「各方面都更強」。 但在實務上,模型表現更像一張資源分配表: * 你把更多訓練與評測權重放在「推理、邏輯、一致性」,它在工程任務會更穩。 * 你把更多權重放在「語氣、修辭、敘事節奏、情緒共鳴」,它在寫作會更像人。 而要把兩邊都做到頂,成本與風險會一起上升:更難控的輸出、更多不可預期的風格漂移、更難一致的產品體驗。 ## 為什麼寫程式看起來進步特別快 寫程式任務有幾個天然優勢: 1. 驗證明確:能跑、能過測試、能重現。 2. 回饋快速:錯了會報錯,改一次就知道對不對。
江中喬
Prompt 不是咒語:AI 回覆品質反映的是你的思考結構

Prompt 不是咒語:AI 回覆品質反映的是你的思考結構

最近 AI 圈的節奏很像一種集體幻覺:每隔幾天就冒出一個新框架、新方法、新「必學技巧」。大家焦慮地交換咒語、交換模板,彷彿只要背對句型,就能讓模型吐出神作。 但在實務上,我看到的情況更接近另一種現實:你得到的回覆品質,往往取決於你把問題想清楚到什麼程度。 這不只是感覺。Anthropic 在 2026 年 1 月發布的 Anthropic Economic Index 報告中,針對約百萬級的真實 Claude 對話,分別估計「理解使用者輸入需要的教育年限」與「理解模型回覆需要的教育年限」,並在不同國家與美國各州層級比較兩者關係,得到高度線性相關(相關係數皆 > 0.92)。 換句話說,prompt 的概念難度/複雜度,幾乎會等比例反映到回覆本身的複雜度。 AI 很強,但它不是把普通人瞬間變成專家的魔法棒;它比較像一面鏡子,把你輸入的思考層次放大、照出缺口。
江中喬