📄 什么是 RAG?
RAG(Retrieval-Augmented Generation)是一种将文档检索与 AI 生成相结合的技术。通过上传你的文档,AI 可以基于这些内容回答问题,提供更准确、更有针对性的回答。
1️⃣ 上传文档
PDF
Word
TXT
Markdown
⬇️
2️⃣ 文档处理
文本提取
分段处理
向量化
⬇️
3️⃣ 向量存储
嵌入模型
向量数据库
⬇️
4️⃣ 检索回答
语义检索
上下文注入
AI 生成
📤 上传文档
支持的文件格式
| 格式 | 扩展名 | 说明 |
|---|---|---|
| 自动提取文本 | ||
| Word | .docx, .doc | 支持表格和格式 |
| 文本 | .txt | 纯文本文件 |
| Markdown | .md | 保留格式 |
| 代码 | .py, .js, etc | 语法高亮 |
上传方式
- 点击界面中的「文档」按钮(#️⃣ 图标)
- 选择「上传文档」
- 拖拽或选择文件
- 等待处理完成
💡 提示
文档上传后需要一定时间处理,处理完成后会在文档列表中显示。
🔍 使用文档
在对话中使用
上传文档后,在对话中:
- 输入
#触发文档选择 - 选择要使用的文档
- AI 会基于选中文档回答问题
文档集合
可以创建文档集合,将多个相关文档分组:
- 将公司文档组织成一个集合
- 将技术文档按项目分组
- 共享文档集合给团队成员
⚙️ 高级配置
嵌入模型选择
环境变量
# 默认嵌入模型
RAG_EMBEDDING_MODEL=all-MiniLM-L6-v2
# 使用 Ollama 嵌入模型
RAG_EMBEDDING_MODEL=nomic-embed-text
RAG_EMBEDDING_MODEL_PROVIDER=ollama
# 使用 OpenAI 嵌入
RAG_EMBEDDING_MODEL=text-embedding-3-small
RAG_EMBEDDING_MODEL_PROVIDER=openai
检索参数
| 参数 | 说明 | 默认值 |
|---|---|---|
| TOP_K | 检索的文档片段数 | 5 |
| CHUNK_SIZE | 文档分段大小 | 1000 |
| CHUNK_OVERLAP | 分段重叠大小 | 100 |
💡 最佳实践
- 文档质量:确保文档清晰、格式良好
- 合理分段:文档不宜过长,建议拆分
- 定期更新:及时更新过时的文档
- 权限管理:敏感文档设置为私有
- 测试验证:上传后测试检索效果