Self-check(引導 Claude 自我檢查)
對重要任務,最後要求 Claude 自我評估——主動暴露盲點。
範例 1:列假設與不確定處
[您的任務]
完成後請:
1. 列出您採用的 3 個假設
2. 指出您不確定的 2 個地方
3. 預測 1 個我可能會反駁您的觀點
效果:Claude 會主動暴露盲點,您能更快發現問題。
範例 2:Reflection / Critique(自我批評)
[您的初稿提示]
請先寫一版。
然後**站在嚴格的 reviewer 立場批評您剛剛寫的版本**——
找 5 個可以改進的點。最後給優化版。
通常第二版品質比第一版高一個檔次。
範例 3:要求多版本
請給我 3 種不同方案,各自 pros/cons
避免被單一答案誤導。
範例 4:要求引用來源
這個說法的來源是哪份 PAM 文件?quote 一段。
要 Claude 給文件位置 + 原文。如果它編造,您一查就知道。
範例 5:要求測試案例驗證
您剛剛改的 [[GradingService]].CalcGrade,
請給我 10 個測試案例(含邊界),覆蓋率 100%。
讓 AI 自己生 test cases,跑一遍即知對錯。
為什麼有效
LLM 第一次輸出常含「過度自信的錯誤」。要求自檢 = 強制它重新審視自己的工作,找出原本沒注意的盲點。
對 PAM 的應用
[寫完一段 PAM SQL 查詢]
請:
1. 自我評估這 query 在 50 萬筆資料下會多慢
2. 指出 2 個可能的索引機會
3. 列出 3 個邊界 case 我該寫測試
相關概念
強連結(原文明確提及)
- Chain of Thought — 推理過程透明
- Role Prompting — 套 reviewer 角色
- XML 標籤提示 — 把任務 / 自檢分開
深入閱讀(外部資源)
- 深入閱讀:04-進階提示技巧
← 回到 wiki