AI Atlas
Orta· ~2 dk okuma#bias#variance#trade-off

Bias-Variance Dengesi

Bias-Variance Trade-off

Bir modelin yaptığı hatayı iki bileşene ayırma çerçevesi: bias (model çok basit), variance (model çok kararsız). Aralarında doğal bir denge vardır.

YANLILIK · VARYANSYÜKSEK BIASsistematik sapmaYÜKSEK VARYANSdağınıkİDEALmerkezde, sıkıDoğru karmaşıklık ikisinin toplamını minimize eder.
Tanım

Bir modelin gerçek hatası matematiksel olarak üç parçaya ayrılır: bias (modelin sistematik yanlılığı — gerçek ilişkiyi yakalamakta yetersiz), variance (eğitim verisi değişince tahmininin ne kadar oynadığı — kararsızlık) ve irreducible error (verinin doğasındaki gürültü, hiçbir model çözemez). Hata = bias² + variance + sabit gürültü.

Bu üçlü arasında doğal bir gerilim vardır. Modeli karmaşıklaştırırsan (daha derin ağaç, daha çok parametre) bias düşer ama variance yükselir. Çok basitleştirirsen variance düşer ama bias artar. "Doğru karmaşıklık" ikisinin toplamını minimize eden noktadır.

Pratikte teşhis basittir. Yüksek bias belirtileri: hem eğitim hem doğrulama doğruluğu düşük, ikisi birbirine yakın → model yetersiz öğreniyor (underfitting). Yüksek variance belirtileri: eğitim doğruluğu çok yüksek, doğrulama belirgin düşük → aşırı öğreniyor (overfitting). Çare farklı: bias için modeli güçlendir, variance için düzenlileştir veya veriyi artır.

Benzetme

Hedef tahtasına ok atma analogisi klasiktir. Yüksek bias, düşük variance: her ok aynı yere düşüyor ama merkez değil — sistemli sapma. Düşük bias, yüksek variance: oklar her yere dağılıyor, ortalama merkeze yakın ama hiçbir tek atış güvenilir değil. Düşük bias, düşük variance: oklar hep merkeze yakın — ideal durum. Yüksek bias, yüksek variance: hem dağınık hem yanlış bölgede — model işe yaramıyor. İyi modeli ararken bu dengeyi yönetiyorsun.

Gerçek dünyadan örnek

Bir e-ticaret tıklama olasılığı tahmininde üç model kıyaslanıyor.

1. Doğrusal regresyon (yüksek bias): Eğitim AUC 0.71, doğrulama AUC 0.70. Hatalar yakın, sistematik düşük başarı. Model, kullanıcı × ürün × bağlam etkileşimini yakalayamıyor.

2. Aşırı büyük random forest (yüksek variance): Eğitim AUC 0.99, doğrulama AUC 0.79. Eğitim verisini ezberlemiş ama genelleme zayıf.

3. Düzenli LightGBM (dengeli): Eğitim AUC 0.86, doğrulama AUC 0.84. Hem öğreniyor, hem genelliyor.

Üçüncü model canlıya alınır. Birinci modeli düzeltmek için özellik etkileşimi ekle (polinom, çapraz çarpımlar). İkinciyi düzeltmek için max_depth, learning_rate, regularization ayarla. Bias-variance çerçevesi hangi tür müdahaleye ihtiyaç olduğunu söyler.

Kod örnekleri
Bias ve variance teşhisiPython
from sklearn.model_selection import cross_validate
from sklearn.ensemble import RandomForestClassifier
from sklearn.linear_model import LogisticRegression

models = {
    "logistic (basit)": LogisticRegression(max_iter=1000),
    "rf shallow":       RandomForestClassifier(max_depth=4, n_estimators=200),
    "rf deep":          RandomForestClassifier(max_depth=None, n_estimators=200),
}

for name, m in models.items():
    cv = cross_validate(m, X, y, cv=5, scoring="f1_macro", return_train_score=True)
    train = cv["train_score"].mean()
    val = cv["test_score"].mean()
    gap = train - val
    print(f"{name:20s}  train={train:.3f}  val={val:.3f}  gap={gap:+.3f}")
    # gap büyükse → variance sorunu
    # train de düşükse → bias sorunu
Ne zaman kullan
  • Bu bir teşhis çerçevesi; her model değerlendirmesinde kullan
Ne zaman kullanma
  • Bu bir teşhis çerçevesi; sürekli aklının bir köşesinde olsun
Sık yapılan hatalar

Bias'ı variance ile karıştırmak

Eğitim doğruluğunun yüksek olması bias'ın düşük olduğunu söyler ama variance'ı saklayabilir. İkisini birden ölçmeden teşhis koyamazsın.

Tek silah ile iki sorunu vurmak

Düzenlileştirme variance'ı düşürür ama biraz da bias getirir. Her sorunun kendi aracı vardır: bias için modeli güçlendir; variance için sınırla.

Veri artırmanın her şeyi çözeceğini sanmak

Daha çok veri variance'ı düşürür, bias'a etkisi azdır. Modelin temel mimarisi yetersizse veri ekleyerek bunu düzeltemezsin.