čtvrtek 21. srpna 2025

Jak nasadit Ollama + Open WebUI pomocí Docker Compose

🧠 Návod: Jak nasadit Ollama + Open WebUI pomocí Docker Compose

📦 Co je Ollama + Open WebUI?

  • Ollama: Lokální nástroj pro spouštění jazykových modelů (např. LLaMA, DeepSeek, Mistral).
  • Open WebUI: Webové rozhraní pro interakci s Ollama API – přehledné, moderní a snadno použitelné.

🛠️ Předpoklady

  • Docker (verze 20.10+)
  • Docker Compose (verze 2.0+)
  • GPU (volitelné, pro akceleraci modelů)
  • Porty: 11434 (Ollama), 3000 (Open WebUI)

📄 docker-compose.yml Stack

version: '3.8'

services:

  ollama:

    image: ollama/ollama:latest

    container_name: ollama

    ports:

      - "11434:11434"

    volumes:

      - ollama_data:/root/.ollama

    restart: unless-stopped

  open-webui:

    image: ghcr.io/open-webui/open-webui:main

    container_name: open-webui

    ports:

      - "3000:8080"

    environment:

      - OLLAMA_API_BASE_URL=http://ollama:11434

    depends_on:

      - ollama

    volumes:

      - open_webui_data:/app/backend/data

    restart: unless-stopped

volumes:

  ollama_data:

  open_webui_data:

🚀 Jak to spustit

  1. Vytvoř složku projektu:
    mkdir ollama-stack && cd ollama-stack
  2. Ulož docker-compose.yml do této složky.
  3. Spusť stack:
    docker compose up -d
  4. Otevři webové rozhraní: http://localhost:3000
  5. Stáhni model (např. DeepSeek):
    docker exec -it ollama ollama pull deepseek-coder

🧩 Tipy pro produkční nasazení

  • Použij Nginx Proxy Manager pro reverzní proxy a SSL.
  • Nastav WEBUI_SECRET_KEY pro zabezpečení přístupu.
  • Pravidelně zálohuj data pomocí Docker volume backup.

Žádné komentáře:

Okomentovat