📘 项目简介
Ollama 是一个在本地运行大语言模型(LLM)的工具。它将 llama.cpp 包装成简单的 CLI 和 REST API,让你能够一键下载、运行各种开源大模型——无需 API 费用、无需云端延迟、完全数据隐私。
🎯 核心价值
零 API 成本、零云端延迟、完全数据隐私。在你的电脑上运行 Llama、Qwen、Mistral 等大模型。
为什么选择 Ollama?
🚀 一键运行
ollama run llama3.1 即可开始
💰 零成本
无需 API 费用,无限调用
🔒 完全隐私
数据不离开你的机器
⚡ GPU 加速
支持 NVIDIA、AMD、Apple Silicon
🔌 OpenAI 兼容
API 兼容 OpenAI 格式
🛠️ 自定义模型
Modelfile 创建个性化模型
🚀 快速开始
# 安装(macOS/Linux)
curl -fsSL https://ollama.com/install.sh | sh
# 运行 Llama 3.1
ollama run llama3.1
# 运行 Qwen2.5
ollama run qwen2.5
🎯 热门模型
📊 项目数据
- GitHub Stars - 140K+
- 支持平台 - macOS、Linux、Windows
- 许可证 - MIT
- 模型数量 - 100+ 官方模型