Chain-of-Thought
CoT — Adım Adım Düşünme
Modeli, cevabı vermeden önce ara akıl yürütme adımlarını yazmaya yönlendiren bir prompt tekniği.
Bir LLM'e karmaşık bir matematik sorusu sorup doğrudan cevap istersen genelde yanılır. Aynı modele "adım adım düşün" dediğinde doğruluk oranı dramatik şekilde artar. 2022'de Google araştırmacılarının keşfettiği bu yönteme Chain-of-Thought (CoT — düşünce zinciri) prompt'lama denir.
Mantığı: model "düşünce" adımlarını da token olarak üretir. Her ara adım, bir sonrakini şekillendiren bağlam olur. Hesabı kafadan yapmak yerine kâğıda yazıp adımlamış gibi olur.
İki çeşit vardır: few-shot CoT (prompt'a örnek bir çözüm zinciri eklersin), zero-shot CoT (sadece "Let's think step by step" / "Adım adım düşün" yazarsın). Zero-shot bile şaşırtıcı derecede iyi çalışır.
Sınavda matematik sorusu: "kafadan hesapla" dersen, %40 doğru. "Yan kâğıda işlemleri yaz" dersen, %85 doğru. Adımları yazmak hatayı yakalamana izin verir; aynı sebep model için de geçerli.
Soru: "Roger'ın 5 topu var. 3 toplu 2 kutu daha alıyor. Şimdi kaç top var?"
Direkt cevap: "10" (yanlış)
CoT cevap: - Roger'da 5 top var. - 2 kutu × 3 top = 6 yeni top. - Toplam: 5 + 6 = 11. - Cevap: 11
Aynı model, aynı soru. Tek fark: "let's think step by step" eklemek. GSM8K matematik benchmark'ında bu basit hile %18 → %58 doğruluk sıçraması yaratır.
- Çok adımlı matematik veya mantık problemleri
- Kod hata ayıklama — modelin kodu adım adım yürütmesi gerekiyorsa
- Karar ağaçları, koşullu mantık (eğer-ise çıkarımları)
- Karmaşık talimatları parçalama (önce X, sonra Y, sonra Z)
- Basit olgusal (factual) sorular ('İngiltere'nin başkenti?') — gereksiz uzatma
- Çok kısa cevap istiyorsan (sınıflandırma, tek kelime çıktı)
- Gecikmeye duyarlıysa — CoT 3-10 kat daha uzun çıktı = daha pahalı + daha yavaş
Akıl yürüten modellerde gereksizleşiyor
o1, Claude Sonnet 4 reasoning gibi modeller zaten içlerinde CoT yapıyor. Onlara ayrıca 'adım adım düşün' demek bazen geri tepiyor.
Adımlar yanlış olabilir, cevap yine doğru çıkabilir
Model bazen adımları uydurup sonunda doğru cevaba 'tesadüfen' varır. CoT'yu doğruluk garantisi sanma — denetim yine şarttır.
Token bütçesinin patlaması
Her CoT yanıtı 200-1000 ek token. Canlı sistemde düşünme adımlarını gizleyip sadece final cevabı kullanıcıya gösterirsen kullanıcı deneyimi bozulmaz.