從提示工程到指令架構:Andrej Karpathy 的原則如何為 Code Agent 重新校準
當 AI coding 從提示技巧走向工程規訓,真正重要的已不是怎麼讓模型更會寫,而是怎麼讓它少亂寫。
在日常工作中,我們越來越習慣於將編碼任務交給 AI Agent 處理。然而,這種協作模式的蜜月期往往很短。我們都曾遇過類似的場景:一個看似簡單的需求,卻被 Agent 產出了一套過度設計、引入非必要依賴、甚至基於錯誤假設的複雜程式碼。最終,我們花在除錯和重構上的時間,甚至超過了自己從頭開始寫的時間。這種「AI 膨脹」現象,正是當前 Agent 應用落地時最棘手的挑戰之一。
最近,一個在 GitHub 上迅速累積近三萬顆星的專案,為這個問題提供了一個極具啟發性的解決方案。這個名為 andrej-karpathy-skills 的專案,其核心並非複雜的程式碼,而是一個名為 CLAUDE.md 的 Markdown 檔案。這個檔案的功能,是作為一套明確的「行為準則」,用來指導和約束 Claude 這類大型語言模型在執行編碼任務時的思考路徑與決策模式。
這個專案的精髓,在於它將 Andrej Karpathy 對於 LLM 在編碼任務中常見陷阱的深刻洞察,轉化為四項可執行的核心原則。這些原則並非技術性的程式碼指令,更像是一套為 AI Agent 量身打造的「心智腳本」或「操作紀律」,旨在從根本上抑制模型的兩大負面傾向:無端的假設與不必要的擴充。
雖然原始檔案並未逐條詳列,但從其解決的問題反推,這四項原則的精神顯而易見:
第一,是「最小化初始假設」。模型傾向於填補資訊空白,當需求不夠明確時,它會自行「腦補」各種情境,引入不存在的 API、假設特定的資料庫結構,或預設一個複雜的使用者認證系統。這項原則要求 Agent 在資訊不足時,必須主動提問、尋求澄清,而不是擅自做出設計決策。它強迫 Agent 從一個「無所不知的專家」退回到一個「謹慎的執行者」角色。
第二,是「崇尚簡潔與標準化」。許多模型在訓練過程中學習了大量的開源專案,其中不乏過度工程化的案例。這導致它們在解決問題時,傾向於使用複雜的設計模式或引入冷門的第三方函式庫。這項原則引導 Agent 優先採用最簡單、最直接的解決方案,並盡可能使用標準函式庫。這不僅降低了程式碼的複雜度,也大幅減少了後續的維護成本與潛在的供應鏈風險。
第三,是「迭代式交付,而非一步到位」。面對一個多步驟的任務,Agent 往往試圖一次性生成所有程式碼,這很容易導致前後邏輯矛盾或忽略邊界條件。此原則的核心是任務拆解,要求 Agent 將複雜問題分解為一系列更小、可驗證的步驟,並逐步完成。這種作法不僅讓每一步的產出更可靠,也讓我們作為人類監督者更容易介入、校準其方向。
第四,是「自我解釋與驗證」。Agent 產出的程式碼不應是一個黑盒子。這項原則鼓勵模型在提供程式碼的同時,附上其設計思路、決策理由以及一個簡單的驗證方法(例如單元測試或一段可執行的腳本)。這將模型的「思考過程」顯性化,讓我們能快速判斷其方案是否合理,並驗證其結果是否正確。
這個 CLAUDE.md 檔案的出現,標誌著一個重要的範式轉移:我們正從「提示工程」(Prompt Engineering)的戰術層次,邁向「指令架構」(Instruction Architecture)的戰略層次。
過去,我們專注於如何設計一個完美的「問題」,期望模型能給出一個完美的「答案」。這是一種將模型視為黑盒的作法,成敗充滿了不確定性。而「指令架構」的核心思想,是將 Agent 的行為準則、決策框架、甚至是價值觀,作為一個獨立的、可管理的元件,納入我們的系統設計中。這個 CLAUDE.md 就像是 Agent 的憲法,可以與我們的專案程式碼一同被版本控制、審查和迭代。
從產品與系統建構的角度來看,這帶來了幾個顯著的優勢。首先是「可預測性」的提升。當 Agent 的行為受到一套明確規則的約束時,其產出就不再是隨機的靈感迸發,而是在一個可控範圍內的系統化輸出。這對於需要交付穩定、可靠產品的團隊至關重要。其次是「可維護性」。當 Agent 的「心智模型」被文件化後,團隊成員可以清楚地理解其行為邏輯,除錯和優化的過程不再是猜測,而是有據可依的系統性調整。
更重要的是,這種作法為我們打開了「人機協作」的新維度。我們不再僅僅是任務的發佈者和結果的驗收者,而是成為了 AI Agent 心智模型的設計者與教練。我們可以透過調整這套指令架構,系統性地提升整個開發流程的效率與品質。例如,我們可以加入團隊內部的程式碼風格指南、安全性原則,甚至是特定的架構偏好,將 Agent 更深度地整合到我們的工作流程中。
對於希望在產品中規模化應用 AI Agent 的企業或團隊而言,與其投入大量資源自研一套行為準則,直接採用或基於這類經過社群驗證的框架進行客製化,無疑是更明智的選擇。這不僅節省了寶貴的探索時間,更能直接受益於社群的集體智慧。這個 GitHub 專案的廣受歡迎,本身就證明了其原則的普適性與有效性。
總結來說,這個看似簡單的 Markdown 檔案,實則代表了我們駕馭 LLM 的思維正在走向成熟。我們開始意識到,釋放 AI 潛力的關鍵,不在於無止境地追求模型的規模或能力,而在於為其建立一套清晰、有效的「行為護欄」與「心智腳本」。從單次的提示優化,到持續迭代的指令架構,這一步的跨越,將是決定 AI Agent 能否從一個有趣的玩具,真正成為我們專業工作流程中可靠夥伴的分水嶺。
我是江中喬,一位具有 TPM 與產品管理背景的 AI 系統建構者,目前專注於 AI 認知增強系統與多 Agent 協作架構的設計與實踐。