AIAgent

AI 信仰與資安失憶症:為什麼越理性的人,越容易在 Agent 上鬆手

AI 信仰與資安失憶症:為什麼越理性的人,越容易在 Agent 上鬆手

最近 AI Agent 工具爆紅,最有趣的現象不是功能,而是一種「集體失憶」。 幾年前我們還在教大家: * 不要亂點不明連結 * 看到怪信就刪 * 2FA 是底線 * 筆電相機孔要貼起來 * 電腦要裝防毒 結果現在突然變成: 「AI 可以全自動,好方便。」 「讓它自動開信、整理附件、爬網站、操作電腦、開鏡頭,沒問題吧?」 這轉變太快,快到很多平常很理性的人,開始呈現出一種近乎信仰的態度:只要有人提到風險,就像是在戳破他們對「強大 AI 助理」的想像。 ## 真正的矛盾:資安不是不知道,是選擇性忽略 我不相信今天談資安的人突然都不懂資安。 我更相信的是:當便利性足夠高,人類會自動把風險合理化。 * 「我只是開個 Gmail 給它看而已」 * 「它又不會亂寄信」 * 「它很聰明啦」 但你如果把句子裡的「AI」換成「陌生外包」或「
江中喬
「AI Agent 工程師」會取代前後端分工嗎?我更在意的是責任邊界

「AI Agent 工程師」會取代前後端分工嗎?我更在意的是責任邊界

最近看到一個說法很吸睛:未來不分前端、後端,只剩一種角色——AI Agent 工程師。 這種說法很容易引發兩種反應: * 技術人員的焦慮:我是不是要被淘汰了? * 管理者的興奮:那是不是可以砍掉一半人? 我比較想把它放回工程現場來看:角色可能會融合,但真正決定你價值的,不是「會不會寫程式」,而是你能不能把 AI 帶進流程、並且把風險收得住。 ## 角色真的會統一嗎:會,但方式不會那麼浪漫 「全端化」本來就一直在發生。 從 jQuery 到 Node.js 到雲原生,每一波工具鏈變強,都會讓分工邊界變模糊。 AI Agent 只是把這件事推得更極端: * 需求描述更像規格撰寫 * UI / API / DB schema 都可以被快速生成 * 除錯、測試、文件也能被半自動化 但工程世界裡永遠有一個不變的物理定律:產出越快,錯誤也會更快、更大量、
江中喬
Karpathy 的 LLM Agent 寫程式體感:改變的不是速度,是工作的邊界

Karpathy 的 LLM Agent 寫程式體感:改變的不是速度,是工作的邊界

Karpathy 的 LLM Agent 寫程式體感:改變的不是速度,是工作的邊界 很多人把 AI 在軟體開發裡的價值,理解成「寫程式更快」。 但真正用上一段時間之後,你會發現它動到的不是加速,而是整個工作方式:你不再把時間花在逐行產出,而是花在定義、檢查、修正與決策。 最近 Andrej Karpathy 分享了他大量使用 LLM agent(例如 Claude)寫程式的體感,我覺得值得把它讀成一個更大的訊號:軟體工程的瓶頸正在移動。 出處(Andrej Karpathy 貼文):https://x.com/karpathy/status/2015883857489522876 從「手寫」到「審稿」:工程師的手感正在改變 Karpathy 的描述很直白:在很短的時間內,他從「大多數程式都親手寫」
江中喬
Prompt-Only 攻擊:當攻擊不再靠惡意程式,而是靠「指令」

Prompt-Only 攻擊:當攻擊不再靠惡意程式,而是靠「指令」

最近看到 CrowdStrike CEO George Kurtz 提到一個很值得警惕的概念:Prompt-Only 攻擊。 它的直覺很殘酷:攻擊者不一定要丟一個「寫死的惡意程式」進你電腦,他只要把一段惡意指令(prompt)植入到你環境裡,讓你本機的 AI 工具自己把攻擊補完。 ## 什麼是 Prompt-Only 攻擊(用工程語言翻譯) 傳統惡意軟體常見的路線是: * 交付 payload(惡意檔案/惡意腳本) * 連回 C2(指揮控制) * 下載模組、更新行為 * 用特徵碼或行為模型去偵測 Prompt-Only 的想像是另一條路: * 攻擊者交付的是「文字指令」 * 指令會跟企業內部已部署的 LLM 擴展、瀏覽器 AI 代理互動 * AI 依照受害者的本機環境(檔名、Slack 紀錄、郵件內容等)即時生成腳本(
江中喬
Prompt 不是咒語:AI 回覆品質反映的是你的思考結構

Prompt 不是咒語:AI 回覆品質反映的是你的思考結構

最近 AI 圈的節奏很像一種集體幻覺:每隔幾天就冒出一個新框架、新方法、新「必學技巧」。大家焦慮地交換咒語、交換模板,彷彿只要背對句型,就能讓模型吐出神作。 但在實務上,我看到的情況更接近另一種現實:你得到的回覆品質,往往取決於你把問題想清楚到什麼程度。 這不只是感覺。Anthropic 在 2026 年 1 月發布的 Anthropic Economic Index 報告中,針對約百萬級的真實 Claude 對話,分別估計「理解使用者輸入需要的教育年限」與「理解模型回覆需要的教育年限」,並在不同國家與美國各州層級比較兩者關係,得到高度線性相關(相關係數皆 > 0.92)。 換句話說,prompt 的概念難度/複雜度,幾乎會等比例反映到回覆本身的複雜度。 AI 很強,但它不是把普通人瞬間變成專家的魔法棒;它比較像一面鏡子,把你輸入的思考層次放大、照出缺口。
江中喬
AI FOMO 管理學:把資訊消化拉長兩週,順便搞懂 Skills vs MCP

AI FOMO 管理學:把資訊消化拉長兩週,順便搞懂 Skills vs MCP

這陣子的 AI 圈有一種熟悉的味道,讓我想起 2022–23 年的區塊鏈: * 新名詞、新框架、新「革命性」應用,幾乎每 2–3 天就來一輪 * 產品成熟度還沒跟上,討論熱度先衝到天花板 * 你明明在工作,手機卻一直提醒你「你落後了」 FOMO 不是你的問題,它是市場在高速迭代時的副產品。問題在於,你要用什麼節奏去消化它。 ## 我自己最實用的一招:把判斷週期拉到 1–2 週 當資訊密度高到爆表時,我會強迫自己做一個「時間濾網」: * 今天看到的概念先記下來 * 不急著追完整套教學、也不急著做結論 * 兩週後再回頭看:還有人持續在聊嗎?有真實案例冒出來嗎?有工具鏈開始接上來嗎? 兩週後還站得住的東西,通常具備兩種特質之一: 1. 確實解決了某個痛點,所以會有自發的延伸使用 2. 短期內難以被巨頭輕鬆碾壓或收編,因此會累積一點點護城河 用這個節奏再去投入時間,
江中喬
Clawdbot vs n8n:別再用「XX已死」製造知識焦慮

Clawdbot vs n8n:別再用「XX已死」製造知識焦慮

最近又看到一種熟悉的流量打法:新工具一出,就有人急著喊「某某已死」。這類說法很有效,因為它直接打中兩件事——焦慮與跟風。 但在自動化工具這個領域,最容易被忽略的一點是:同一個詞(自動化、AI、Agent)底下,其實塞了好幾種完全不同的產品形態。把它們硬塞進同一個比較框架,結論自然會歪掉。 ## 兩種工具,兩種工作方式 以近期討論度很高的 Clawdbot 與 n8n 為例,很多爭論其實源於「用錯評估標準」。 ### Clawdbot:對話驅動的個人助理型自動化 Clawdbot 更像是把任務入口做成聊天介面:你用 Telegram、WhatsApp 等訊息,把需求丟出去,系統在本地電腦或伺服器環境裡決策並執行。 它擅長處理的是「人平常懶得做、但又很花時間的小事」:整理郵件、拉行事曆、查資料、串通知、跑一些需要上下文判斷的流程。 這種形態的代價也很明顯: * 可觀測性容易不足:做了什麼、為什麼這樣做、是否能重現,往往需要額外設計。
江中喬