🔗 连接问题
Q: 无法连接到 Ollama?
A: 检查以下几点:
- 确认 Ollama 正在运行:
ollama list - Docker 中使用
--add-host=host.docker.internal:host-gateway - 检查防火墙是否阻止了端口 11434
- 设置正确的 OLLAMA_BASE_URL
Q: OpenAI API 调用失败?
A: 检查 API Key 是否正确,以及网络是否能访问 OpenAI。如需代理,设置 OPENAI_API_BASE_URL
🤖 模型问题
Q: 模型列表为空?
A: 确保已拉取模型:ollama pull llama3.2:3b,然后刷新页面。
Q: 模型加载很慢?
A: 大模型需要更多内存。尝试使用更小的模型,或增加系统内存。
Q: 回复中断或报错?
A: 可能是内存不足。检查 GPU 显存或系统内存使用情况。
📄 RAG 问题
Q: 文档上传后检索不到?
A: 等待文档处理完成,刷新页面查看状态。确保嵌入模型已正确配置。
Q: PDF 文档乱码?
A: 某些扫描版 PDF 无法提取文本。尝试使用文字版 PDF 或 OCR 工具处理。
🐳 Docker 问题
Q: 容器无法启动?
A: 查看日志:docker logs open-webui,检查端口是否被占用。
Q: 数据丢失?
A: 确保使用了数据卷:-v open-webui:/app/backend/data
Q: GPU 不生效?
A: 安装 nvidia-container-toolkit,并确保 Docker 配置了 GPU 支持。
🔐 认证问题
Q: 忘记管理员密码?
A: 删除数据卷重新创建账户,或使用命令行重置。
Q: OAuth 登录失败?
A: 检查回调 URL 配置是否正确,确保与访问地址一致。
🔗 相关资源
- GitHub Issues - 提交 Bug 和功能请求
- 官方文档 - 完整配置指南
- Discord 社区 - 获取社区支持