AI

AI Agent 越來越強,但你的 MCP 架構扛得住嗎?

AI Agent 越來越強,但你的 MCP 架構扛得住嗎?

最近看到 Google Cloud Tech 談 MCP(Model Context Protocol)安全的影片,裡面有一句話我很認同:當模型開始有「手腳」,你要治理的就不只是模型輸出,而是整個行動鏈。 https://www.youtube.com/watch?v=qGCdbAn0nk8 很多團隊把 MCP 當成「讓 LLM 連接外部工具的標準介面」。工程上它確實很漂亮:代理(Agent)負責決策,MCP Server 負責執行工具操作。但安全上,它等於把攻擊面從「文字」擴大成「能改你系統狀態的一連串動作」。 這篇我用實務角度整理 MCP 架構常見的四類風險,跟一套比較像工程的防線設計:縱深防禦(Defense in Depth)。 ## MCP 的核心風險:
江中喬
演算法真的比你更懂你嗎?把「洗腦」講得更精準一點

演算法真的比你更懂你嗎?把「洗腦」講得更精準一點

很多人談到推薦系統或 AI 個人化時,會用一句話總結:演算法比你更懂你。 這句話有情緒張力,但如果要把它寫成一篇比較可靠的討論,我更想把問題講得精準一點: 當一個系統長期觀察你的行為,它確實可能建立一套「你會被什麼吸引、會被什麼激怒、會在什麼時候下決定」的模型。 這不等於它能讀心,也不等於你會被完全控制;但它足以影響你每天的注意力分配與資訊飲食。 ## 真正該怕的不是「魔法」,是「長期的微小推動」 影響一個人的想法,很少是一次性的劇烈改造。 更常見的是長期、細碎、近乎無感的改變: * 你看見哪些議題、看不見哪些議題 * 你被推送哪一種框架的敘事 * 你在情緒高點時接收到什麼內容 * 你被鼓勵加入哪些群體、排斥哪些人 如果系統的目標是「讓你停留更久、互動更多」,它自然會找到最能觸發你反應的內容。 而當這種「觸發」被做得足夠個人化,你就會開始覺得:這些內容好像特別懂我。 ## 從產品角度看,這其實是心理建模(psychological profiling) 不用把它講成陰謀論,它比較像一種高強度的行為模型: * 你點什麼、停留多久
江中喬