📋 前置条件
安装 Open WebUI 之前,确保你的系统已安装:
| 依赖 | 说明 |
|---|---|
| Docker | 推荐方式,最简单 |
| Ollama | 本地运行 LLM(可选) |
| Python 3.11+ | pip 安装方式需要 |
安装 Ollama(推荐)
bash
# macOS / Linux
curl -fsSL https://ollama.ai/install.sh | sh
# 启动 Ollama
ollama serve
# 拉取模型
ollama pull llama3.2:3b
🐳 Docker 安装(推荐)
方式一:连接本地 Ollama
bash
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main
方式二:内置 Ollama(All-in-One)
bash
# GPU 版本(需要 NVIDIA 显卡)
docker run -d -p 3000:8080 \
--gpus all \
-v ollama:/root/.ollama \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:ollama
# CPU 版本
docker run -d -p 3000:8080 \
-v ollama:/root/.ollama \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:ollama
访问 http://localhost:3000 开始使用。
🐍 pip 安装
bash
# 安装
pip install open-webui
# 启动
open-webui serve
# 访问 http://localhost:8080
⚡ uv 安装(推荐)
uv 是更快的 Python 包管理器:
bash
# 安装 uv
curl -LsSf https://astral.sh/uv/install.sh | sh
# 运行 Open WebUI
uvx open-webui serve
🎯 首次使用
- 创建账户:首次访问会显示注册页面,创建管理员账户
- 选择模型:在顶部下拉菜单选择已安装的模型
- 开始对话:输入问题,享受 AI 对话
💡 提示
如果使用内置 Ollama 版本,首次使用需要在设置中拉取模型:ollama pull llama3.2:3b
🔄 更新 Open WebUI
Docker 方式
bash
# 使用 Watchtower 自动更新
docker run --rm -v /var/run/docker.sock:/var/run/docker.sock \
containrrr/watchtower --run-once open-webui
# 或手动更新
docker pull ghcr.io/open-webui/open-webui:main
docker stop open-webui && docker rm open-webui
# 重新运行 docker run 命令
pip 方式
bash
pip install --upgrade open-webui