LLM
Large Language Model — Büyük Dil Modeli
Devasa metin verisiyle eğitilmiş, sıradaki kelimeyi tahmin etmeyi öğrenen ve sohbet edebilen büyük yapay zeka modeli.
LLM, milyarlarca parametreli bir sinir ağıdır. Tek bir temel görevi vardır: bir metnin ardından hangi token'ın geleceğini olasılığa göre tahmin etmek. Bunu yeterince iyi yaptığında soru cevaplama, yazma, kod üretme gibi yetenekler kendiliğinden belirir — bu fenomene emergence (kendiliğinden ortaya çıkış) denir.
Mimari olarak neredeyse hepsi Transformer tabanlıdır. Eğitim üç aşamada ilerler: önce trilyonlarca token üzerinde ön-eğitim (pretraining — dilin genel yapısı öğrenilir), sonra insan örnekleriyle ince ayar (fine-tuning), en son RLHF ile insan tercihlerine hizalama.
Önde gelen aileler: GPT (OpenAI), Claude (Anthropic), Gemini (Google), Llama (Meta — açık kaynak), DeepSeek, Mistral, Qwen. Boyutları 2 milyar ile 2 trilyon parametre arasında değişir. Performans tek başına boyuta bağlı değildir — eğitim verisinin kalitesi ve eğitim tekniği çoğu zaman daha belirleyici.
Telefon klavyendeki "bir sonraki kelime" önerisini düşün. LLM, ondan milyon kat daha güçlü ve bağlamı çok daha geniş tutan bir otomatik tamamlamadır. Sadece kelime değil; paragraf, hatta bütün bir fonksiyon tamamlayabilir. Ama yaptığı şey hâlâ "tahmin" — gerçek anlamda bir bilgisi ya da inancı yok.
Bir hukuk firması Claude'a sözleşme özetletmek istiyor. API'ye
gönderilen yapı:
system: "Sen bir hukuk asistanısın. Türkçe yanıtla, maddeleri numarala."
user: [10 sayfalık sözleşme metni] + "Bu sözleşmeyi 5 madde ile özetle."
Claude metni token'lara böler (~8000 token), her bir sonraki token'ı olasılığa göre üretir ve sonunda 5 maddelik Türkçe bir özet döner. Arkada hiçbir "anlama" yok — sadece istatistiksel tahmin. Ama o tahmin o kadar iyi ki sonuç bir insan editörün çıkaracağına yakın.
- Doğal dil görevleri: özet, çeviri, yeniden yazma, açıklama
- Kod üretimi ve açıklaması (Copilot, Cursor)
- Sınıflandırma/bilgi çıkarma prototipleri (önce LLM ile dene, sonra özel model yaz)
- Sohbet asistanları, müşteri destek botları
- Yapısal verinin doğal dile çevrilmesi (rapor, e-posta üretimi)
- Hassas matematik ya da sayısal hesap (hesap makinesi veya kod çalıştırma aracına bağla)
- Gerçek zamanlı veri sorgusu (RAG ya da fonksiyon çağırma şart)
- Tam deterministik çıktı gerektiğinde — T=0 bile %100 garanti vermez
- Düşük gecikme kritik ise — LLM cevabı 1-30 sn arasında, bazı senaryolar için fazla yavaş
LLM'i bilgi kaynağı sanmak
LLM gerçeği değil, eğitim verisindeki istatistiği tahmin eder. 'Geçen yıl X şirketinin geliri neydi?' sorusunda kendinden emin yanlış cevap verebilir. Kritik bilgi için RAG ya da web araması şart.
Token maliyetini hafife almak
1000 token çıktı ≈ 750 kelime. Günde 10K kullanıcı × 5 mesaj × 1000 token = aylık ~1.5 milyar token. GPT-4 fiyatlarıyla ciddi para. Prompt caching ve daha küçük model planlamak şart.
Tek modelin her şeye yeteceğini sanmak
Sınıflandırma için ucuz/hızlı, sohbet için orta, karmaşık görev için premium model — bu hibrit yönlendirme toplam maliyeti %70'e kadar düşürebilir.