五角大廈要 AI『一切合法用途』:為什麼我更支持 Anthropic 的底線

當採購方要求『一切合法用途』,供應商是否還能保留安全底線?我更關心的是承諾邊界與可執行治理,而不是短期的大單輸贏。

五角大廈要 AI『一切合法用途』:為什麼我更支持 Anthropic 的底線

最近動區(BlockTempo)引述 Axios 報導稱,五角大廈正要求四大 AI 實驗室(OpenAI、Google、xAI、Anthropic)在合約上接受「一切合法用途(all lawful purposes)」條款,讓模型使用範圍擴大到武器研發、情資蒐集與戰場行動等敏感領域。報導也指出,Anthropic 因堅持不開放「大規模監控」與「完全自主武器」等用途,成了四家之中唯一仍有明確保留的那一方,合作關係甚至可能面臨縮減或終止的壓力。

很多人會把這件事解讀為:Anthropic 因為不配合,所以在政府大單上處於劣勢。

我更在意的點其實是另一個問題:當最強勢的採購方要求供應商把使用範圍推到極限時,市場上還有沒有公司願意把安全界線寫得很清楚,並且為此承擔商業代價?

這也是我傾向支持 Anthropic 的原因。

這次爭議的核心:承諾邊界

對國防體系而言,把 AI 納入流程的關鍵不只在「做得到」,也在「能不能長期穩定運作」:

  • 是否可預測
  • 是否可控
  • 是否能被合約清楚約束

一旦模型被部署到高敏感場景,臨時拒答、逐案協商、或因政策限制而卡住任務,都會變成採購方眼中的巨大風險。

因此,五角大廈強推「all lawful purposes」並不令人意外。它追求的是最大可用性與最少不確定性。

真正棘手的地方在於:當可用性被推到極致時,安全底線還能不能被保留?如果可以,邊界要畫在哪裡?

Anthropic 的底線不是口號:它寫在 Usage Policy(AUP)

支持 Anthropic,並不是因為它看起來更「高尚」,而是它把限制寫進了可被引用的政策文本,並明確表達:當用途跨過風險門檻,就不提供協助。

你可以在 Anthropic 的官方 Usage Policy(也稱 Acceptable Use Policy / AUP)中看到它對多類高風險用途的限制與禁止(包含武器、未授權入侵/監控、破壞關鍵基礎設施等)。這些規範至少釋放了一個訊號:他們願意為「不做什麼」負責。

在國防採購這種場域,真正稀缺的往往不是「什麼都能做」,而是「知道什麼不該做,並且能在合約與系統設計上落地」。

五角大廈也有框架:但框架不等於可執行邊界

值得補充的是,美國國防部(DoD)過去公開過 AI 倫理原則(Responsible、Equitable、Traceable、Reliable、Governable)。這表示國防體系並非完全不談治理;只是從採購角度看,他們可能認為在既有法律與軍事規範下,「合法」足以構成邊界。

問題在於,「有倫理原則」不會自動變成可執行的邊界。當任務需要速度、規模與自動化時,「合法」與「可接受」之間仍可能存在巨大的灰區。

灰區必然存在,所以才更需要像 Anthropic 這種願意把界線講清楚的角色——即使因此在採購談判中變得難搞。

這不只是軍用與否,而是拒絕把責任外包給一句話

「all lawful purposes」聽起來乾脆,但它同時把範圍最大化,也讓責任切割變得更漂亮:只要合法就能用,那供應商還剩多少空間去說「不」?

依報導描述,Anthropic 的立場更像是:合作可以談,但不接受用「合法」兩個字把所有最尖銳的用途打包帶過。

我認為這樣的堅持在長期更重要,因為它在提醒市場:AI 供應商不只是交付效能的零件商,它同時也是風險與外部性的一部分。

風險提醒:細節仍多來自媒體轉述

BlockTempo 的文章包含一些高度敏感的敘事(例如特定軍事行動與供應商內部反應),多屬「引述官員」或「媒體報導稱」,未必能被更多公開來源交叉驗證。

因此在部落格引用時,建議清楚標註來源層級,並保留必要的不確定性:

  • 使用「Axios 報導稱/BlockTempo 引述稱……」
  • 補上「目前公開資訊有限,部分細節仍待更多來源佐證」

這會讓文章更扎實,也能避免把單一媒體敘事寫成定論。

結語:如果連 Anthropic 都被逼退,下一步會是什麼?

我支持 Anthropic,因為它至少在做一件很少人願意做的事:在最有錢、最強勢、最急迫的客戶面前,仍然保留一條可被引用、可被落地的安全界線。

AI 正快速走向基礎設施。大家都在比速度、比模型能力、比部署量。

真正決定安全邊界的,往往是合約裡那一句話——以及到底有沒有公司敢在那一句旁邊寫上:「到此為止」。


參考資料