AI Sözlüğü
Başlangıç· ~2 dk okuma#llm#language-model

LLM

Large Language Model — Büyük Dil Modeli

Devasa metin verisiyle eğitilmiş, sıradaki kelimeyi tahmin etmeyi öğrenen ve sohbet edebilen büyük yapay zeka modeli.

istemGİRDİLLMmilyarlarca parametreSONRAKİ-TOKEN TAHMİNİÇIKTI
Tanım

LLM, milyarlarca parametreli bir sinir ağıdır. Tek bir temel görevi vardır: bir metnin ardından hangi token'ın geleceğini olasılığa göre tahmin etmek. Bunu yeterince iyi yaptığında soru cevaplama, yazma, kod üretme gibi yetenekler kendiliğinden belirir — bu fenomene emergence (kendiliğinden ortaya çıkış) denir.

Mimari olarak neredeyse hepsi Transformer tabanlıdır. Eğitim üç aşamada ilerler: önce trilyonlarca token üzerinde ön-eğitim (pretraining — dilin genel yapısı öğrenilir), sonra insan örnekleriyle ince ayar (fine-tuning), en son RLHF ile insan tercihlerine hizalama.

Önde gelen aileler: GPT (OpenAI), Claude (Anthropic), Gemini (Google), Llama (Meta — açık kaynak), DeepSeek, Mistral, Qwen. Boyutları 2 milyar ile 2 trilyon parametre arasında değişir. Performans tek başına boyuta bağlı değildir — eğitim verisinin kalitesi ve eğitim tekniği çoğu zaman daha belirleyici.

Benzetme

Telefon klavyendeki "bir sonraki kelime" önerisini düşün. LLM, ondan milyon kat daha güçlü ve bağlamı çok daha geniş tutan bir otomatik tamamlamadır. Sadece kelime değil; paragraf, hatta bütün bir fonksiyon tamamlayabilir. Ama yaptığı şey hâlâ "tahmin" — gerçek anlamda bir bilgisi ya da inancı yok.

Gerçek dünyadan örnek

Bir hukuk firması Claude'a sözleşme özetletmek istiyor. API'ye gönderilen yapı: system: "Sen bir hukuk asistanısın. Türkçe yanıtla, maddeleri numarala." user: [10 sayfalık sözleşme metni] + "Bu sözleşmeyi 5 madde ile özetle."

Claude metni token'lara böler (~8000 token), her bir sonraki token'ı olasılığa göre üretir ve sonunda 5 maddelik Türkçe bir özet döner. Arkada hiçbir "anlama" yok — sadece istatistiksel tahmin. Ama o tahmin o kadar iyi ki sonuç bir insan editörün çıkaracağına yakın.

Bir adım daha derine
LLM AYNI ANDA TEK TOKEN ÜRETİRŞU ANA KADAR"The capital of France is"LLMOLASILIKLAR0.92Paris0.05Lyon0.02Berlin0.01RomaYENİ DURUM"The capital of France isParis" → sonraki token tahminibu döngü, cümle bitene kadar her token için tekrar eder
Ne zaman kullan
  • Doğal dil görevleri: özet, çeviri, yeniden yazma, açıklama
  • Kod üretimi ve açıklaması (Copilot, Cursor)
  • Sınıflandırma/bilgi çıkarma prototipleri (önce LLM ile dene, sonra özel model yaz)
  • Sohbet asistanları, müşteri destek botları
  • Yapısal verinin doğal dile çevrilmesi (rapor, e-posta üretimi)
Ne zaman kullanma
  • Hassas matematik ya da sayısal hesap (hesap makinesi veya kod çalıştırma aracına bağla)
  • Gerçek zamanlı veri sorgusu (RAG ya da fonksiyon çağırma şart)
  • Tam deterministik çıktı gerektiğinde — T=0 bile %100 garanti vermez
  • Düşük gecikme kritik ise — LLM cevabı 1-30 sn arasında, bazı senaryolar için fazla yavaş
Sık yapılan hatalar

LLM'i bilgi kaynağı sanmak

LLM gerçeği değil, eğitim verisindeki istatistiği tahmin eder. 'Geçen yıl X şirketinin geliri neydi?' sorusunda kendinden emin yanlış cevap verebilir. Kritik bilgi için RAG ya da web araması şart.

Token maliyetini hafife almak

1000 token çıktı ≈ 750 kelime. Günde 10K kullanıcı × 5 mesaj × 1000 token = aylık ~1.5 milyar token. GPT-4 fiyatlarıyla ciddi para. Prompt caching ve daha küçük model planlamak şart.

Tek modelin her şeye yeteceğini sanmak

Sınıflandırma için ucuz/hızlı, sohbet için orta, karmaşık görev için premium model — bu hibrit yönlendirme toplam maliyeti %70'e kadar düşürebilir.