📋 前置条件

安装 Open WebUI 之前,确保你的系统已安装:

依赖说明
Docker推荐方式,最简单
Ollama本地运行 LLM(可选)
Python 3.11+pip 安装方式需要

安装 Ollama(推荐)

bash
# macOS / Linux
curl -fsSL https://ollama.ai/install.sh | sh

# 启动 Ollama
ollama serve

# 拉取模型
ollama pull llama3.2:3b

🐳 Docker 安装(推荐)

方式一:连接本地 Ollama

bash
docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

方式二:内置 Ollama(All-in-One)

bash
# GPU 版本(需要 NVIDIA 显卡)
docker run -d -p 3000:8080 \
  --gpus all \
  -v ollama:/root/.ollama \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:ollama

# CPU 版本
docker run -d -p 3000:8080 \
  -v ollama:/root/.ollama \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:ollama

访问 http://localhost:3000 开始使用。

🐍 pip 安装

bash
# 安装
pip install open-webui

# 启动
open-webui serve

# 访问 http://localhost:8080

⚡ uv 安装(推荐)

uv 是更快的 Python 包管理器:

bash
# 安装 uv
curl -LsSf https://astral.sh/uv/install.sh | sh

# 运行 Open WebUI
uvx open-webui serve

🎯 首次使用

  1. 创建账户:首次访问会显示注册页面,创建管理员账户
  2. 选择模型:在顶部下拉菜单选择已安装的模型
  3. 开始对话:输入问题,享受 AI 对话

💡 提示

如果使用内置 Ollama 版本,首次使用需要在设置中拉取模型:ollama pull llama3.2:3b

🔄 更新 Open WebUI

Docker 方式

bash
# 使用 Watchtower 自动更新
docker run --rm -v /var/run/docker.sock:/var/run/docker.sock \
  containrrr/watchtower --run-once open-webui

# 或手动更新
docker pull ghcr.io/open-webui/open-webui:main
docker stop open-webui && docker rm open-webui
# 重新运行 docker run 命令

pip 方式

bash
pip install --upgrade open-webui