一句 Prompt 就能讓 LLM 忘記安全訓練:GRP-Obliteration 的警示 Microsoft AI Red Team 發現 GRP-Obliteration 技術:只需一個 prompt 就能讓經過安全訓練的 LLM 完全撤銷安全對齊,15 個主流開源模型全部中招。