🔗 连接问题

Q: 无法连接到 Ollama?

A: 检查以下几点:

  • 确认 Ollama 正在运行:ollama list
  • Docker 中使用 --add-host=host.docker.internal:host-gateway
  • 检查防火墙是否阻止了端口 11434
  • 设置正确的 OLLAMA_BASE_URL

Q: OpenAI API 调用失败?

A: 检查 API Key 是否正确,以及网络是否能访问 OpenAI。如需代理,设置 OPENAI_API_BASE_URL

🤖 模型问题

Q: 模型列表为空?

A: 确保已拉取模型:ollama pull llama3.2:3b,然后刷新页面。

Q: 模型加载很慢?

A: 大模型需要更多内存。尝试使用更小的模型,或增加系统内存。

Q: 回复中断或报错?

A: 可能是内存不足。检查 GPU 显存或系统内存使用情况。

📄 RAG 问题

Q: 文档上传后检索不到?

A: 等待文档处理完成,刷新页面查看状态。确保嵌入模型已正确配置。

Q: PDF 文档乱码?

A: 某些扫描版 PDF 无法提取文本。尝试使用文字版 PDF 或 OCR 工具处理。

🐳 Docker 问题

Q: 容器无法启动?

A: 查看日志:docker logs open-webui,检查端口是否被占用。

Q: 数据丢失?

A: 确保使用了数据卷:-v open-webui:/app/backend/data

Q: GPU 不生效?

A: 安装 nvidia-container-toolkit,并确保 Docker 配置了 GPU 支持。

🔐 认证问题

Q: 忘记管理员密码?

A: 删除数据卷重新创建账户,或使用命令行重置。

Q: OAuth 登录失败?

A: 检查回调 URL 配置是否正确,确保与访问地址一致。

🔗 相关资源