AI Sözlüğü
LOCAL AI

Yapay zekayı kendi makinende çalıştır.

Bulut yok, abonelik yok, veri sızıntısı yok. Hangi araç hangi senaryoya uygun, nasıl kurulur, GPU/Metal nasıl çalışır — pratik rehber.

Karşılaştırma

5 popüler local AI aracı, tek tabloda. Detay için kart üzerine tıkla.

Platform desteği

OllamavLLMllama.cppLM StudioMLX
Apple Silicon
CPU
NVIDIA (CUDA)
AMD (ROCm)

Hangisini seçmeliyim?

Senaryona göre hızlı yönlendirme.

Mac'te kişisel kullanım, prototipOllama (en kolay) veya LM Studio (GUI istiyorsan)
M-serisi Mac'ten maksimum performansMLX — Apple Silicon native, fine-tune dahil
Production — eşzamanlı kullanıcılar, multi-GPUvLLM — PagedAttention + continuous batching
Embedded / sınırlı donanım / kendi binaryllama.cpp — C++ tek ikili, her yere taşınır
Terminal kullanmak istemiyorumLM Studio — tıkla indir, tıkla başlat
Hassas veri (sözleşme, sağlık) bulutu terk etmesinOllama veya llama.cpp — tamamen offline çalışır