AI Sözlüğü
Orta· ~2 dk okuma#cot#reasoning#prompting

Chain-of-Thought

CoT — Adım Adım Düşünme

Modeli, cevabı vermeden önce ara akıl yürütme adımlarını yazmaya yönlendiren bir prompt tekniği.

İŞLEMİ GÖSTER"Roger'ın 5 topu var. 3 toplu 2 kutu alıyor. Şimdi kaç top?"DÜŞÜNÜYOR1. Roger 5 topla başlıyor.2. 2 kutu × 3 top = 6 yeni top.3. Toplam = 5 + 6 = 11.Cevap: 11 top. ✓"adım adım düşün" eklemek bile doğruluğu büyük ölçüde artırır
Tanım

Bir LLM'e karmaşık bir matematik sorusu sorup doğrudan cevap istersen genelde yanılır. Aynı modele "adım adım düşün" dediğinde doğruluk oranı dramatik şekilde artar. 2022'de Google araştırmacılarının keşfettiği bu yönteme Chain-of-Thought (CoT — düşünce zinciri) prompt'lama denir.

Mantığı: model "düşünce" adımlarını da token olarak üretir. Her ara adım, bir sonrakini şekillendiren bağlam olur. Hesabı kafadan yapmak yerine kâğıda yazıp adımlamış gibi olur.

İki çeşit vardır: few-shot CoT (prompt'a örnek bir çözüm zinciri eklersin), zero-shot CoT (sadece "Let's think step by step" / "Adım adım düşün" yazarsın). Zero-shot bile şaşırtıcı derecede iyi çalışır.

Benzetme

Sınavda matematik sorusu: "kafadan hesapla" dersen, %40 doğru. "Yan kâğıda işlemleri yaz" dersen, %85 doğru. Adımları yazmak hatayı yakalamana izin verir; aynı sebep model için de geçerli.

Gerçek dünyadan örnek

Soru: "Roger'ın 5 topu var. 3 toplu 2 kutu daha alıyor. Şimdi kaç top var?"

Direkt cevap: "10" (yanlış)

CoT cevap: - Roger'da 5 top var. - 2 kutu × 3 top = 6 yeni top. - Toplam: 5 + 6 = 11. - Cevap: 11

Aynı model, aynı soru. Tek fark: "let's think step by step" eklemek. GSM8K matematik benchmark'ında bu basit hile %18 → %58 doğruluk sıçraması yaratır.

Ne zaman kullan
  • Çok adımlı matematik veya mantık problemleri
  • Kod hata ayıklama — modelin kodu adım adım yürütmesi gerekiyorsa
  • Karar ağaçları, koşullu mantık (eğer-ise çıkarımları)
  • Karmaşık talimatları parçalama (önce X, sonra Y, sonra Z)
Ne zaman kullanma
  • Basit olgusal (factual) sorular ('İngiltere'nin başkenti?') — gereksiz uzatma
  • Çok kısa cevap istiyorsan (sınıflandırma, tek kelime çıktı)
  • Gecikmeye duyarlıysa — CoT 3-10 kat daha uzun çıktı = daha pahalı + daha yavaş
Sık yapılan hatalar

Akıl yürüten modellerde gereksizleşiyor

o1, Claude Sonnet 4 reasoning gibi modeller zaten içlerinde CoT yapıyor. Onlara ayrıca 'adım adım düşün' demek bazen geri tepiyor.

Adımlar yanlış olabilir, cevap yine doğru çıkabilir

Model bazen adımları uydurup sonunda doğru cevaba 'tesadüfen' varır. CoT'yu doğruluk garantisi sanma — denetim yine şarttır.

Token bütçesinin patlaması

Her CoT yanıtı 200-1000 ek token. Canlı sistemde düşünme adımlarını gizleyip sadece final cevabı kullanıcıya gösterirsen kullanıcı deneyimi bozulmaz.