一句 Prompt 就能讓 LLM 忘記安全訓練:GRP-Obliteration 的警示 Microsoft AI Red Team 發現 GRP-Obliteration 技術:只需一個 prompt 就能讓經過安全訓練的 LLM 完全撤銷安全對齊,15 個主流開源模型全部中招。
上下文就是攻擊面:從 DockerDash 看 AI 助手的供應鏈風險 整理一則 Threads:當 AI 助手開始讀 Docker image 的 LABEL/metadata,上下文可能被惡意注入,形成新的供應鏈攻擊面。
沉睡後門與開源模型:你部署的不只是能力,也是供應鏈風險 開放權重 LLM 可能藏有『沉睡後門』:平常正常,遇到觸發詞就亂輸出。把模型當成 production dependency,供應鏈體檢與部署風險控管就成了必修。