Jak nasadit Ollama + Open WebUI pomocí Docker Compose
🧠 Návod: Jak nasadit Ollama + Open WebUI pomocí Docker Compose
📦 Co je Ollama + Open WebUI?
- Ollama: Lokální nástroj pro spouštění jazykových modelů (např. LLaMA, DeepSeek, Mistral).
- Open WebUI: Webové rozhraní pro interakci s Ollama API – přehledné, moderní a snadno použitelné.
🛠️ Předpoklady
- Docker (verze 20.10+)
- Docker Compose (verze 2.0+)
- GPU (volitelné, pro akceleraci modelů)
- Porty: 11434 (Ollama), 3000 (Open WebUI)
📄 docker-compose.yml Stack
version: '3.8'
services:
ollama:
image: ollama/ollama:latest
container_name: ollama
ports:
- "11434:11434"
volumes:
- ollama_data:/root/.ollama
restart: unless-stopped
open-webui:
image: ghcr.io/open-webui/open-webui:main
container_name: open-webui
ports:
- "3000:8080"
environment:
- OLLAMA_API_BASE_URL=http://ollama:11434
depends_on:
- ollama
volumes:
- open_webui_data:/app/backend/data
restart: unless-stopped
volumes:
ollama_data:
open_webui_data:
🚀 Jak to spustit
- Vytvoř složku projektu:
mkdir ollama-stack && cd ollama-stack
- Ulož
docker-compose.yml
do této složky.
- Spusť stack:
docker compose up -d
- Otevři webové rozhraní: http://localhost:3000
- Stáhni model (např. DeepSeek):
docker exec -it ollama ollama pull deepseek-coder
🧩 Tipy pro produkční nasazení
- Použij Nginx Proxy Manager pro reverzní proxy a SSL.
- Nastav
WEBUI_SECRET_KEY
pro zabezpečení přístupu.
- Pravidelně zálohuj data pomocí Docker volume backup.
Žádné komentáře:
Okomentovat