Chain of Thought(思維鏈)
CoT——對複雜推理題,加一句「請逐步思考」就能大幅提升正確率。
核心做法
加任一觸發詞:
- 「請逐步思考」
- 「show your reasoning」
- 「請列出計算步驟」
- 「Let’s think step by step」
對照範例
❌ 不思考
Q:一個牛肉麵 280 元,給 8% 折扣再加 10% 服務費,最終多少?
A:283.36 元
LLM 直接輸出答案——有可能算錯。
✅ 鼓勵思考
Q:一個牛肉麵 280 元,給 8% 折扣再加 10% 服務費,最終多少?
請列出計算步驟。
A:
1. 折扣後價格:280 × (1 - 0.08) = 280 × 0.92 = 257.6
2. 加上服務費:257.6 × (1 + 0.10) = 257.6 × 1.10 = 283.36
最終:283.36 元
LLM 必須展示工作——錯誤更易發現、且整體更準確。
為什麼有效
LLM 是「下一個 token 預測器」。直接吐答案 = 一次推理;CoT = 把難題拆成多步小推理 = 每步更可靠。
進階:思考預算
對特別複雜的問題明確說:
這是個棘手的設計決策。請:
1. 花時間思考所有可能方案(至少 5 個)
2. 對每個方案列出 pros / cons
3. 排除前 3 名後選最終方案
4. 解釋為什麼放棄其他方案
不要急著給答案——我寧願您想清楚再回。
對 PAM 的應用
對 PAM 業務邏輯(如 等第天花板、出勤扣分)這招超有用:
員工 A:事假 16 小時,記過 1 次,年資 3 年
請逐步分析:
1. [[出勤扣分]] 是多少?
2. 觸發哪些 [[等第天花板]] 條件?
3. 最終可達最高等第為何?
相關概念
強連結(原文明確提及)
- Few-shot prompting
- XML 標籤提示
- Self-check — 思考完後自我審視
- Multi-shot prompting — 配對使用(範例 + 推理)
深入閱讀(外部資源)
- 深入閱讀:03-提示工程基礎
← 回到 wiki