💡 什么是 Open WebUI?
Open WebUI 是一个开源的、功能丰富的 AI 聊天界面,设计风格类似 ChatGPT。它支持多种 LLM 后端,包括 Ollama 和 OpenAI 兼容 API,可以完全自托管在你的服务器上。
🌟 核心优势
- 完全开源:MIT 许可证,可自由使用和修改
- ChatGPT 风格:熟悉的用户界面,零学习成本
- 多后端支持:Ollama、OpenAI、Anthropic、Google Gemini 等
- RAG 文档检索:上传文档,让 AI 基于你的内容回答
- Pipelines 插件:扩展功能,自定义逻辑
- 多用户支持:团队协作,权限管理
📊 项目信息
GitHub Stars
90K+ 开发者关注
技术栈
Python + Svelte + FastAPI
部署方式
Docker / pip / uv
开源协议
MIT License
🎯 适用场景
- 个人使用:本地运行 AI 聊天,保护隐私
- 团队协作:共享模型和对话,知识沉淀
- 企业部署:内网部署,数据安全可控
- AI 开发:测试和比较不同模型效果
- RAG 应用:基于文档的智能问答系统
🚀 快速体验
最简单的启动方式(需要已安装 Docker):
bash
# 如果已安装 Ollama
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data --name open-webui --restart always \
ghcr.io/open-webui/open-webui:main
# 访问 http://localhost:3000
首次访问会要求创建管理员账户,之后即可开始使用。
🔗 支持的模型后端
Ollama
本地运行开源模型,零成本
OpenAI
GPT-4、GPT-4o、GPT-3.5
Anthropic
Claude 3.5、Claude 3
Google Gemini
Gemini Pro、Gemini Ultra
还支持 LMStudio、GroqCloud、Mistral、OpenRouter 等 OpenAI 兼容 API。