Yapay zekayı kendi makinende çalıştır.
Bulut yok, abonelik yok, veri sızıntısı yok. Hangi araç hangi senaryoya uygun, nasıl kurulur, GPU/Metal nasıl çalışır — pratik rehber.
Karşılaştırma
5 popüler local AI aracı, tek tabloda. Detay için kart üzerine tıkla.
En kolay başlangıçİnceleProduction lideriİnceleHer yerde çalışırİnceleGUI deneyimiİnceleApple Silicon nativeİncele
Ollama
Tek komutla local LLM — başlangıç için ideal
Kurulum kolaylığı
Performans
vLLM
Yüksek throughput production sunucusu
Kurulum kolaylığı
Performans
llama.cpp
C++ ile yazılmış, her yerde çalışan inference motoru
Kurulum kolaylığı
Performans
LM Studio
GUI ile model indir, çalıştır, sohbet et
Kurulum kolaylığı
Performans
MLX
Apple Silicon için yerel framework
Kurulum kolaylığı
Performans
Platform desteği
| Ollama | vLLM | llama.cpp | LM Studio | MLX | |
|---|---|---|---|---|---|
| Apple Silicon | |||||
| CPU | |||||
| NVIDIA (CUDA) | |||||
| AMD (ROCm) |
Hangisini seçmeliyim?
Senaryona göre hızlı yönlendirme.
Mac'te kişisel kullanım, prototip→ Ollama (en kolay) veya LM Studio (GUI istiyorsan)
M-serisi Mac'ten maksimum performans→ MLX — Apple Silicon native, fine-tune dahil
Production — eşzamanlı kullanıcılar, multi-GPU→ vLLM — PagedAttention + continuous batching
Embedded / sınırlı donanım / kendi binary→ llama.cpp — C++ tek ikili, her yere taşınır
Terminal kullanmak istemiyorum→ LM Studio — tıkla indir, tıkla başlat
Hassas veri (sözleşme, sağlık) bulutu terk etmesin→ Ollama veya llama.cpp — tamamen offline çalışır