Makine Öğrenmesi
Machine Learning (ML)
Bilgisayarların açıkça programlanmadan, veriden örüntü öğrenerek tahmin yapmasını sağlayan yaklaşım.
Geleneksel programlamada kuralları sen yazarsın, bilgisayar uygular. Makine öğrenmesinde tam tersi: sen örnekler verirsin (girdi → çıktı), bilgisayar kuralı kendi çıkarır.
Üç ana türü vardır: denetimli (etiketli verilerle — örn. spam/ham), denetimsiz (yapı keşfi — kümeleme, anomali tespiti), pekiştirmeli (deneme-yanılma ile ödül — oyun, robotik).
ML'in çekirdeği şudur: bir kayıp fonksiyonu (loss function) tanımla, modelin parametrelerini bu kaybı minimize edecek şekilde ayarla (genelde gradyan inişi — gradient descent ile). Bu döngüye eğitim (training) denir.
Bir çocuğa "köpek" kavramını öğretmek gibidir. Ona onlarca köpek fotoğrafı gösterip "köpek" dersin. Bir gün sokakta hiç görmediği bir cins gördüğünde yine "köpek" der. Çocuğa hiçbir zaman "dört bacaklı, kuyruklu, havlayan…" diye kural listesi vermezsin — örnekten öğrenir. Makine öğrenmesi de tam olarak böyle çalışır.
Netflix'in öneri sistemini düşün: 200 milyon kullanıcının izleme geçmişi var. Sen "Inception"ı izledin, 5 yıldız verdin. Model "bu kullanıcıya benzer profilli diğerleri 'Tenet'i de sevmiş" örüntüsünü yakalar, sana Tenet'i önerir.
Hiçbir Netflix mühendisi "Inception izleyene Tenet öner" diye bir kural yazmamıştır. Model bu çıkarımı milyonlarca tıklama, puanlama ve izleme verisinden kendi başına yapar — ve canlıda her yeni davranışla bilgisini güncellemeye devam eder.
- Örüntü karmaşık ve elle kural yazmak imkansızsa (görsel tanıma, doğal dil)
- Bol etiketli veri varsa — ML veriyi sever
- Sürekli değişen ortamlarda — modeli yeniden eğitebilirsin, kural değiştirmek zor
- İnsandan daha iyi ya da daha hızlı tahmin gerekiyorsa (kredi skoru, hava tahmini)
- Veri az ya da kalitesiz ise — 'çöp girer, çöp çıkar'
- Açıklanabilirlik kritikse (kredi reddi, tıbbi karar) — bazı ML modelleri kara kutudur
- İş kuralı net ve sabit ise —
eğer tutar > 10000 ise işaretleçok daha basit - Tek seferlik kararlar için — model üretmek aylar alır
Aşırı öğrenme (overfitting)
Model eğitim verisini ezberler ve gerçek dünyada başarısız olur. Eğitim doğruluğu %99 ama test doğruluğu %60 ise aşırı öğrenme yaşıyorsundur. Çare: doğrulama seti, düzenlileştirme (regularization), daha çok veri.
Veri sızıntısı (data leakage)
Eğitim verisine gelecek bilgisi sızar. Örnek: 'müşteri kredi aldı mı?' tahmininde yanlışlıkla 'kredi başlangıç tarihini' özellik olarak verirsen model %100 doğru çıkar — ama gerçekte işe yaramaz.
Önyargı büyütme (bias amplification)
Geçmiş veride önyargı varsa (örn. tarihsel olarak erkek mühendislere daha fazla işe alım) model bunu öğrenip kalıcılaştırır. Adil model = adil veri + adil değerlendirme.