AI Sözlüğü
İleri· ~2 dk okuma#fine-tuning#training

Fine-tuning

Hassas Ayar

Önceden eğitilmiş bir modeli, kendi verinle daha küçük çapta yeniden eğitip uzmanlaştırma süreci.

ÖNEĞİTİLMİŞ MODELİ UZMANLAŞTIRBASE MODELGPTgenel amaçlı+VERİN~birkaç binFINE-TUNEDGPT*senin domaininmodele senin tonunu, formatını, terminolojini öğretir
Tanım

Sıfırdan model eğitmek milyonlarca dolar. Bunun yerine var olan bir temel modeli (GPT, Llama, Mistral vb.) alıp kendi sektörel veri setinle birkaç bin örnek üzerinde ek eğitim yaparsın. Sonuç: senin alanına özel, daha doğru ve tutarlı cevap veren bir model.

İki ana yaklaşım: tam ince ayar (full fine-tuning — tüm ağırlıklar güncellenir, pahalı ama güçlü) ve PEFT (parametre-verimli ince ayar — LoRA, adaptör, prefix tuning yöntemleri ile sadece küçük bir kısım eğitilir, ucuz ama yine etkili).

RAG ile karıştırma: RAG bilgi ekler (çalışma anında belge çağırır), ince ayar davranışı şekillendirir (üslup, biçim, terminoloji öğretir). İkisi tamamlayıcıdır, alternatif değil.

Benzetme

Üniversite mezunu birini işe alıp 2 hafta şirket içi oryantasyon vermek gibidir. Temel beceriler zaten var (temel model); sen sadece "biz işleri böyle yaparız" diye uzmanlaştırıyorsun. Sıfırdan eğitmek = bebek alıp 25 yıl yetiştirmek. İnce ayar çok daha pratik.

Gerçek dünyadan örnek

Bir e-posta SaaS'i, kullanıcılarının e-postalarını "fatura, sipariş, destek, spam" diye sınıflandırıyor. Önce GPT-4 ile istem (prompting) denediler — %88 doğruluk, ama 1M e-posta/gün × $0.02/1K token = aylık $20K maliyet.

İnce ayar yolu: 5K etiketli örnek topla, GPT-3.5'i ince ayar et. Sonuç: %94 doğruluk (daha iyi!), maliyet aylık $1K (20× ucuz). Sebep: daha küçük model + daha kısa prompt + tutarlı çıktı.

Yatırım: 2 hafta + $200 ince ayar ücreti. Geri dönüş (ROI): ilk ayda kendini ödedi.

Kod örnekleri
Eğitim verisi (JSONL) · her satır bir örnekJSON
{"messages":[{"role":"system","content":"Sen bir e-posta sınıflandırıcısısın."},{"role":"user","content":"Faturanız hazır, lütfen ödeme yapınız."},{"role":"assistant","content":"fatura"}]}
{"messages":[{"role":"system","content":"Sen bir e-posta sınıflandırıcısısın."},{"role":"user","content":"Siparişiniz kargoya verildi."},{"role":"assistant","content":"sipariş"}]}
{"messages":[{"role":"system","content":"Sen bir e-posta sınıflandırıcısısın."},{"role":"user","content":"Tek tıkla milyon kazan!"},{"role":"assistant","content":"spam"}]}
OpenAI ile fine-tune başlatmaPython
from openai import OpenAI

client = OpenAI()

# 1. Eğitim dosyasını yükle
training_file = client.files.create(
    file=open("emails.jsonl", "rb"),
    purpose="fine-tune",
)

# 2. Fine-tune işini başlat
job = client.fine_tuning.jobs.create(
    training_file=training_file.id,
    model="gpt-4o-mini-2024-07-18",
    hyperparameters={"n_epochs": 3},
)

# 3. Durumu izle (~10-30 dk sürer)
print(client.fine_tuning.jobs.retrieve(job.id).status)

# 4. Bittiğinde model = "ft:gpt-4o-mini:org:emails:abc123"
# Normal API çağrısında bu model adını kullan.
Ne zaman kullan
  • Belirli bir üslubu yakalamak (markaya özel ses tonu)
  • Alana özel terminoloji (tıbbi, hukuki, finansal)
  • Yapılandırılmış çıktı garantisi (her zaman aynı format)
  • Maliyet optimizasyonu: küçük ince ayarlı model > büyük genel model
  • Gecikme: küçük model çok daha hızlıdır
Ne zaman kullanma
  • Bilgi eklemek için (RAG kullan)
  • Hızlı yineleme — prompt değişikliği anlık, ince ayar günler alır
  • Az veri (< 500 örnek) — aşırı öğrenme kaçınılmaz olur
  • Temel modeli geçmek istiyorsan — ince ayarın yetenek tavanı temel modeldir
Sık yapılan hatalar

Yetersiz örnek

Bir görev için 50 örnekle ince ayar = ya aşırı öğrenme ya etkisizlik. Pratik minimum 500-1000, tatlı nokta 5-50K. Sentetik veri (LLM ile örnek üretme) artık standart bir uygulama.

Felaket düzeyinde unutma (catastrophic forgetting)

Çok agresif ince ayar, modelin genel yeteneklerini bozabilir. Tıbbi terimleri öğretirken genel dil yeteneğini kaybedebilir. Düşük öğrenme oranı, az tur (epoch), karışık veri seti kullan.

Sürüm takibinin olmaması

İnce ayarlı modelin 5 farklı sürümünü deniyorsun. Hangisinin neyi düzelttiği, neyi bozduğu kayıt altında değil. Değerlendirme paketi (eval suite) + sürüm takibi şart.