💡 什么是 Open WebUI?

Open WebUI 是一个开源的、功能丰富的 AI 聊天界面,设计风格类似 ChatGPT。它支持多种 LLM 后端,包括 Ollama 和 OpenAI 兼容 API,可以完全自托管在你的服务器上。

🌟 核心优势

  • 完全开源:MIT 许可证,可自由使用和修改
  • ChatGPT 风格:熟悉的用户界面,零学习成本
  • 多后端支持:Ollama、OpenAI、Anthropic、Google Gemini 等
  • RAG 文档检索:上传文档,让 AI 基于你的内容回答
  • Pipelines 插件:扩展功能,自定义逻辑
  • 多用户支持:团队协作,权限管理

📊 项目信息

GitHub Stars

90K+ 开发者关注

🐍

技术栈

Python + Svelte + FastAPI

🐳

部署方式

Docker / pip / uv

📜

开源协议

MIT License

🎯 适用场景

  • 个人使用:本地运行 AI 聊天,保护隐私
  • 团队协作:共享模型和对话,知识沉淀
  • 企业部署:内网部署,数据安全可控
  • AI 开发:测试和比较不同模型效果
  • RAG 应用:基于文档的智能问答系统

🚀 快速体验

最简单的启动方式(需要已安装 Docker):

bash
# 如果已安装 Ollama
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data --name open-webui --restart always \
  ghcr.io/open-webui/open-webui:main

# 访问 http://localhost:3000

首次访问会要求创建管理员账户,之后即可开始使用。

🔗 支持的模型后端

🦙

Ollama

本地运行开源模型,零成本

🤖

OpenAI

GPT-4、GPT-4o、GPT-3.5

🧠

Anthropic

Claude 3.5、Claude 3

💎

Google Gemini

Gemini Pro、Gemini Ultra

还支持 LMStudio、GroqCloud、Mistral、OpenRouter 等 OpenAI 兼容 API。

📖 更多文档