AI Sözlüğü
Başlangıç· ~2 dk okuma#vector#math

Vektör

Vector

Bir varlığı (kelime, görsel, kullanıcı) çok boyutlu uzayda bir nokta olarak temsil eden sayı dizisi.

ANLAM UZAYIdim 1dim 2hayvanlarkedi, köpek, kurt…meyvelerelma, armut, erik…benzer anlamlar yakın düşer; uzak = ilgisiz
Tanım

Vektör, sıralı bir sayı listesidir: [0.21, -0.45, 0.78, ...]. AI bağlamında bu sayılar genellikle 256–4096 arası boyutta olur ve bir nesnenin "anlamını" temsil eder.

Benzer anlamlar uzayda yan yana düşer. "Kedi" ve "köpek" vektörleri birbirine yakın; "kedi" ve "araba" uzaktır. Yakınlık ölçütü genelde cosine similarity veya Euclidean distance ile hesaplanır.

Vektörler aritmetik destekler — toplama, çıkarma, ölçekleme. Ünlü örnek: vec("king") - vec("man") + vec("woman") ≈ vec("queen"). Anlam, gerçekten matematiğin içinde yaşar.

Benzetme

Şehirleri enlem-boylam koordinatıyla gösterirsin: İstanbul (41, 29), Ankara (40, 33). İki şehrin ne kadar yakın olduğunu mesafeyle anlarsın. Vektörler aynı mantıkla anlamların "haritasını" çıkarır — sadece 2 boyut değil, yüzlerce boyut kullanır.

Gerçek dünyadan örnek

Bir e-ticaret arama sistemi. Kullanıcı "kışlık ceket" arıyor. Klasik arama "kışlık" + "ceket" kelimelerini içeren ürünleri döner — ama "termal mont" döndürmez. Vektör araması: "kışlık ceket" cümlesini vektöre çevir, ürün kataloğundaki en yakın 20 vektörü getir. Mont, parka, anorak — anlamca yakın olduğu için hepsi gelir.

Aynı mantık: kullanıcı önerileri (benzer kullanıcı vektörleri), görsel arama (benzer görsel vektörü), spam tespiti (kötü mesaj vektörlerine yakınsa).

Ne zaman kullan
  • Anlamsal benzerlik gerektiğinde (arama, öneri, kümeleme)
  • RAG kuruyorsan — chunk'lar vektör olarak saklanır
  • Klasik keyword matching yetersiz olduğunda
  • Multimodal arama (metinle görsel araması, vs.)
Ne zaman kullanma
  • Tam eşleşme aranıyorsa (SKU, e-mail, telefon) — keyword + B-tree daha hızlı
  • Az veri varsa — vektör arama overhead'i basit pattern matching'i yenmez
  • Açıklanabilirlik şart — 'neden bu sonuç?' sorusuna cevap zor
Sık yapılan hatalar

Boyut farkı

Farklı modellerin vektörleri farklı boyutlarda. OpenAI'ın embedding'i ile Cohere'inkini aynı veritabanında karıştıramazsın.

Normalize etmeyi unutmak

Cosine similarity için vektörlerin normalize edilmiş olması gerekir (uzunluk = 1). Aksi halde sonuçlar yanıltıcı olur.

Boyut lanetini (dimensionality curse) göz ardı etmek

Çok yüksek boyutlu uzayda her şey her şeye 'biraz uzak' görünür. 4096 boyutlu uzayda 'en yakın'ın anlamı azalır. Genelde 768-1536 yeterli.