📘 项目简介

Ollama 是一个在本地运行大语言模型(LLM)的工具。它将 llama.cpp 包装成简单的 CLI 和 REST API,让你能够一键下载、运行各种开源大模型——无需 API 费用、无需云端延迟、完全数据隐私。

🎯 核心价值

零 API 成本、零云端延迟、完全数据隐私。在你的电脑上运行 Llama、Qwen、Mistral 等大模型。

为什么选择 Ollama?

🚀 一键运行

ollama run llama3.1 即可开始

💰 零成本

无需 API 费用,无限调用

🔒 完全隐私

数据不离开你的机器

⚡ GPU 加速

支持 NVIDIA、AMD、Apple Silicon

🔌 OpenAI 兼容

API 兼容 OpenAI 格式

🛠️ 自定义模型

Modelfile 创建个性化模型

🚀 快速开始

# 安装(macOS/Linux)
curl -fsSL https://ollama.com/install.sh | sh

# 运行 Llama 3.1
ollama run llama3.1

# 运行 Qwen2.5
ollama run qwen2.5

🎯 热门模型

模型 大小 适用场景
llama3.1:8b 4.7 GB 通用对话、写作、推理
qwen2.5:7b 4.4 GB 多语言、强推理
mistral 4.1 GB 快速通用助手
deepseek-coder 8.9 GB 代码生成
phi3:mini 2.2 GB 轻量级、快速响应

📊 项目数据

  • GitHub Stars - 140K+
  • 支持平台 - macOS、Linux、Windows
  • 许可证 - MIT
  • 模型数量 - 100+ 官方模型
下一页:核心特性 →