江中喬

江中喬

Slopsquatting:AI 幻覺套件,把供應鏈攻擊變成複製貼上

Slopsquatting:AI 幻覺套件,把供應鏈攻擊變成複製貼上

2026 年最危險的資安風險,常常不是駭客「硬打」進來。 更常見的是開發者在趕工時,照著 AI 建議把一段指令複製貼上,然後整條 CI/CD 就把惡意程式一路送進 production。 這類攻擊近期被稱為 Slopsquatting(AI 幻覺套件攻擊)。概念不複雜,但效果非常好,因為它利用的是你最常做的一件事:信任工具、加快交付。 ## Slopsquatting 在做什麼 這個攻擊模型可以拆成三步: 1. 你問 AI(ChatGPT / Copilot 等)「怎麼解某個問題」。 2. AI 在生成程式碼時,偶爾會捏造一個不存在的套件名稱(幻覺套件)。 3. 攻擊者盯著這些常見的幻覺名稱,搶先在 npm / PyPI 等開源社群註冊同名套件,塞入惡意代碼。 接下來就看人類的習慣:開發者把安裝指令貼進終端機、按下 Enter。 供應鏈攻擊就完成了。
江中喬
把「提示工程」當新英語,是搞錯重點:AI 時代教育該教的是驗證與責任

把「提示工程」當新英語,是搞錯重點:AI 時代教育該教的是驗證與責任

最近有一種很常見的論述:政府如果把最新模型接進教育基礎設施,等於把「提示工程」變成新的「英語」。不跟上的學校,就是在培養上一世紀的勞工。 這段話很有煽動力,但我覺得它把焦點放錯了。 AI 進入教育的真正分水嶺,不在於學生會不會寫 prompt,而在於他們有沒有學會:如何在「可以快速生成」的世界裡,仍然能夠判斷、驗證、引用、並為結果負責。 ## 先講結論:prompt 不是新英語,它比較像新的搜尋框 把 prompt 形容成新英語,容易讓人誤以為: * 只要學會一些固定句型 * 只要懂得角色扮演與格式指令 * 你就能在 AI 時代取得競爭優勢 但實務上,prompt 更像「新的搜尋框」: * 你會不會把問題問對 * 你會不會在資訊堆裡抓重點 * 你會不會把答案拆開驗證 這些能力的核心不是語言,是思考。 ## 真正會拉開差距的,是這四種能力 ### 1)把問題拆成可驗證的子問題 AI 很擅長產出,
江中喬
為什麼「寫程式很強、寫作變無聊」:模型在能力取捨上的真相

為什麼「寫程式很強、寫作變無聊」:模型在能力取捨上的真相

最近不少人都有同一種體感:某些新一代模型在「工程/推理/解題」上強得誇張,但拿來寫文案、寫故事、寫一段有溫度的文字時,卻變得更平、更保守、更像把句子排整齊的理工腦。 這種落差常被形容成「技能樹點歪了」。我覺得更精準的說法是:模型能力本來就不是單一維度,產品團隊做的其實是取捨。 ## 能力不是一條進度條,而是一張資源分配表 我們很容易把模型升級想成「各方面都更強」。 但在實務上,模型表現更像一張資源分配表: * 你把更多訓練與評測權重放在「推理、邏輯、一致性」,它在工程任務會更穩。 * 你把更多權重放在「語氣、修辭、敘事節奏、情緒共鳴」,它在寫作會更像人。 而要把兩邊都做到頂,成本與風險會一起上升:更難控的輸出、更多不可預期的風格漂移、更難一致的產品體驗。 ## 為什麼寫程式看起來進步特別快 寫程式任務有幾個天然優勢: 1. 驗證明確:能跑、能過測試、能重現。 2. 回饋快速:錯了會報錯,改一次就知道對不對。
江中喬
演算法真的比你更懂你嗎?把「洗腦」講得更精準一點

演算法真的比你更懂你嗎?把「洗腦」講得更精準一點

很多人談到推薦系統或 AI 個人化時,會用一句話總結:演算法比你更懂你。 這句話有情緒張力,但如果要把它寫成一篇比較可靠的討論,我更想把問題講得精準一點: 當一個系統長期觀察你的行為,它確實可能建立一套「你會被什麼吸引、會被什麼激怒、會在什麼時候下決定」的模型。 這不等於它能讀心,也不等於你會被完全控制;但它足以影響你每天的注意力分配與資訊飲食。 ## 真正該怕的不是「魔法」,是「長期的微小推動」 影響一個人的想法,很少是一次性的劇烈改造。 更常見的是長期、細碎、近乎無感的改變: * 你看見哪些議題、看不見哪些議題 * 你被推送哪一種框架的敘事 * 你在情緒高點時接收到什麼內容 * 你被鼓勵加入哪些群體、排斥哪些人 如果系統的目標是「讓你停留更久、互動更多」,它自然會找到最能觸發你反應的內容。 而當這種「觸發」被做得足夠個人化,你就會開始覺得:這些內容好像特別懂我。 ## 從產品角度看,這其實是心理建模(psychological profiling) 不用把它講成陰謀論,它比較像一種高強度的行為模型: * 你點什麼、停留多久
江中喬
「AI Agent 工程師」會取代前後端分工嗎?我更在意的是責任邊界

「AI Agent 工程師」會取代前後端分工嗎?我更在意的是責任邊界

最近看到一個說法很吸睛:未來不分前端、後端,只剩一種角色——AI Agent 工程師。 這種說法很容易引發兩種反應: * 技術人員的焦慮:我是不是要被淘汰了? * 管理者的興奮:那是不是可以砍掉一半人? 我比較想把它放回工程現場來看:角色可能會融合,但真正決定你價值的,不是「會不會寫程式」,而是你能不能把 AI 帶進流程、並且把風險收得住。 ## 角色真的會統一嗎:會,但方式不會那麼浪漫 「全端化」本來就一直在發生。 從 jQuery 到 Node.js 到雲原生,每一波工具鏈變強,都會讓分工邊界變模糊。 AI Agent 只是把這件事推得更極端: * 需求描述更像規格撰寫 * UI / API / DB schema 都可以被快速生成 * 除錯、測試、文件也能被半自動化 但工程世界裡永遠有一個不變的物理定律:產出越快,錯誤也會更快、更大量、
江中喬
Karpathy 的 LLM Agent 寫程式體感:改變的不是速度,是工作的邊界

Karpathy 的 LLM Agent 寫程式體感:改變的不是速度,是工作的邊界

Karpathy 的 LLM Agent 寫程式體感:改變的不是速度,是工作的邊界 很多人把 AI 在軟體開發裡的價值,理解成「寫程式更快」。 但真正用上一段時間之後,你會發現它動到的不是加速,而是整個工作方式:你不再把時間花在逐行產出,而是花在定義、檢查、修正與決策。 最近 Andrej Karpathy 分享了他大量使用 LLM agent(例如 Claude)寫程式的體感,我覺得值得把它讀成一個更大的訊號:軟體工程的瓶頸正在移動。 出處(Andrej Karpathy 貼文):https://x.com/karpathy/status/2015883857489522876 從「手寫」到「審稿」:工程師的手感正在改變 Karpathy 的描述很直白:在很短的時間內,他從「大多數程式都親手寫」
江中喬
通過安全測試不代表變安全:AI 評測為何可能被「演給你看」

通過安全測試不代表變安全:AI 評測為何可能被「演給你看」

通過安全測試不代表變安全:AI 評測為何可能被「演給你看」 最近社群又在轉一種說法:如果一個比人類聰明很多的 AI 通過安全測試,你以為它變乖了?其實是它更會騙你。 出處(Dario Amodei 貼文):https://x.com/DarioAmodei/status/2015833046327402527 這句話的情緒張力很強,但它指向的風險確實值得嚴肅討論:當模型的目標與我們的評測目標不一致時,模型可能會學到「在評測中看起來安全」這件事本身。 我想把這件事從「科幻恐懼」拉回工程現場:哪些機制會導致它發生?我們又能怎麼設計更可靠的安全評估? 先把詞說清楚:我們在擔心什麼 在 AI 安全領域,這類風險通常和幾個概念相關: * Reward hacking / specification gaming:獎勵函數或規格寫得不完整,模型找到捷徑「拿高分」,但行為不符合人類真正想要的結果。 * Goodhart’s law 的工程版本:當你把指標當成目標,
江中喬