Türk Bayrağı
Yapay Zeka - AI

Docker ile Ollama + Open WebUI Kurulumu

Windows (WSL2) Üzerinde Docker ile Ollama + Open WebUI Kurulumu (Yerel LLM Modelleri)

Yerel (local) büyük dil modelleri (LLM) çalıştırmak, hem veri gizliliği hem de maliyet kontrolü açısından ciddi avantaj sağlar. Bu yazıda, Windows üzerinde Docker Desktop + WSL2 backend kullanarak:

  • Ollama (model çalıştırıcı/servis)

  • Open WebUI (tarayıcıdan ChatGPT benzeri arayüz)

kurulumunu, model indirme–çalıştırma örneklerini ve pratik sorun giderme adımlarını paylaşıyorum.

1) Kavramlar: Ollama, Model (Llama/Qwen/Gemma), Open WebUI

  • Model (Llama, Qwen, Gemma, Mistral, DeepSeek): Eğitilmiş “zeka” (ağırlıklar/parametreler). Tek başına çalışmaz.
  • Ollama: Modelleri yerelde çalıştıran servis. Model indirir, saklar, çalıştırır ve HTTP API açar.
  • Open WebUI: Tarayıcı arayüzü. Model çalıştırmaz; Ollama’ya bağlanır, sohbet ve yönetim ekranı sağlar.

Özet: Model = beyin, Ollama = motor/servis, Open WebUI = arayüz.

2) Ön Koşullar (Windows + Docker Desktop + WSL2)

Docker Desktop’ın WSL2 backend ile çalıştığını doğrulamak için:

wsl -l -v

Çıktıda docker-desktop için VERSION = 2 görüyorsanız doğru altyapıdasınız.

GPU-PV (opsiyonel ama performans için önemli)

GPU hızlandırma hedefliyorsanız WSL kernel güncellemesi:

wsl --update

3) Ollama’yı Docker’da çalıştırma (WSL2 backend)

Ollama servisini 11434 portuyla ayağa kaldırın (modeller kalıcı olsun diye volume kullanıyoruz):

docker run -d --name ollama -p 11434:11434 -v ollama:/root/.ollama ollama/ollama

(NVIDIA GPU ile denemek isterseniz):

docker run -d --gpus=all --name ollama -p 11434:11434 -v ollama:/root/.ollama ollama/ollama

4) Open WebUI’yi Docker’da çalıştırma

Open WebUI’yi 3000 portuyla başlatın:

docker run -d --name open-webui -p 3000:8080 -v open-webui:/app/backend/data ghcr.io/open-webui/open-webui:main

Tarayıcıdan açın:

  • http://localhost:3000

5) İlk modeli çalıştırma ve popüler model indirme komutları

Önemli not: Open WebUI’de “Model” listesi boş görünüyorsa genelde sebep şudur: Ollama’da henüz model yoktur. Bu durumda /api/tags boş döner.

İlk model: Llama 3.2

Modeli indirip çalıştırmanın en hızlı yolu:

docker exec -it ollama ollama run llama3.2

Popüler modelleri indirme (örnekler)

docker exec -it ollama ollama pull qwen2.5:7b
docker exec -it ollama ollama pull qwen2.5-coder:7b
docker exec -it ollama ollama pull gemma2:9b
docker exec -it ollama ollama pull mistral-nemo:12b
docker exec -it ollama ollama pull deepseek-r1:7b

Kurulu modelleri listeleme

docker exec -it ollama ollama list

API üzerinden kontrol (model var mı?)

curl http://localhost:11434/api/tags

Eğer çıktı "models": [] ise henüz model indirilmemiştir. Bir ollama pull veya ollama run çalıştırdıktan sonra liste dolacaktır.

6) Open WebUI’de kullanım ipuçları

  • Open WebUI’de yeni sohbet başlatın ve model seçin (ör. llama3.2, qwen2.5:7b).
  • Teknik servis yanıtları gibi tekrar eden işler için “System Prompt / Preset” oluşturun.

Örnek: Teknik Servis Asistanı (System Prompt fikri)

  • Kısa ve net yaz.
  • Adım adım çözüm öner.
  • Gerekirse menü yolunu/komutu ver.
  • Varsayım yapıyorsan belirt.

7) Sık sorunlar ve hızlı çözümler

Sorun: Open WebUI’de model listesi boş

  • Muhtemel neden: Ollama’da model yok.
  • Çözüm: docker exec -it ollama ollama run llama3.2 veya ollama pull ile model indirin.
  • Kontrol: curl http://localhost:11434/api/tags

Sorun: Disk hızlı doluyor

Modeller GB seviyesinde yer kaplar. Kullanmadığınız modeli silebilirsiniz:

docker exec -it ollama ollama rm qwen2.5:7b

8) Kısa model seçimi rehberi

  • Genel kullanım (hız/denge): 7B sınıfı (ör. qwen2.5:7b)
  • Kod odaklı: qwen2.5-coder:7b
  • Az kaynak + hızlı yanıt: llama3.2 gibi 3B sınıfı modeller
  • Daha güçlü muhakeme: 12B+ (ör. mistral-nemo:12b) ancak RAM/VRAM ihtiyacı artar

Sonuç

Bu kurulumla Windows üzerinde Docker Desktop (WSL2) kullanarak:

  • Ollama ile modelleri yerelde çalıştırabilir,
  • Open WebUI ile tarayıcıdan ChatGPT benzeri deneyim yaşayabilir,
  • Llama/Qwen/Gemma/Mistral/DeepSeek gibi modelleri ihtiyacınıza göre indirip yönetebilirsiniz.