Ollama 支持众多开源大模型,介绍 Ollama 支持的各类模型,包括 Llama、Mistral、Qwen 等主流模型的特点和适用场景。本章将介绍主要的模型系列。
访问 Ollama 官方模型库:https://ollama.com/library
这里汇集了所有可用的模型,你可以:
Llama 是 Meta(Facebook)开源的模型系列,是目前最流行的开源大模型之一。
| 版本 | 参数量 | 大小 | 特点 |
|---|---|---|---|
| llama3.2:1b | 1B | 约 1.3 GB | 极轻量,适合边缘设备 |
| llama3.2:3b | 3B | 约 2.0 GB | 平衡性能,日常使用推荐 |
| llama3.2:11b | 11B | 约 6.5 GB | 更强性能,需要更多资源 |
适用场景:
使用示例:
ollama run llama3.2:3b
| 版本 | 参数量 | 大小 | 特点 |
|---|---|---|---|
| llama3.1:8b | 8B | 约 4.7 GB | 性能优秀,推荐配置 |
| llama3.1:70b | 70B | 约 40 GB | 顶级性能,需要强大硬件 |
特点:
Mistral AI 开发的模型,以高效著称。
| 版本 | 参数量 | 大小 | 特点 |
|---|---|---|---|
| mistral:7b | 7B | 约 4.1 GB | 高效,资源占用低 |
| mixtral:8x7b | 47B | 约 26 GB | 混合专家模型 |
适用场景:
使用示例:
ollama run mistral:7b
通义千问是阿里巴巴开源的中文大模型,中文能力突出。
| 版本 | 参数量 | 大小 | 特点 |
|---|---|---|---|
| qwen2.5:0.5b | 0.5B | 约 0.5 GB | 极轻量 |
| qwen2.5:1.5b | 1.5B | 约 1.1 GB | 轻量级 |
| qwen2.5:3b | 3B | 约 2.0 GB | 平衡选择 |
| qwen2.5:7b | 7B | 约 4.7 GB | 性能优秀 |
| qwen2.5:14b | 14B | 约 9.0 GB | 更强性能 |
| qwen2.5:32b | 32B | 约 19 GB | 顶级性能 |
特点:
适用场景:
使用示例:
ollama run qwen2.5:7b
Google 开源的轻量级模型。
| 版本 | 参数量 | 大小 | 特点 |
|---|---|---|---|
| gemma2:2b | 2B | 约 1.6 GB | 极轻量 |
| gemma2:9b | 9B | 约 5.5 GB | 平衡性能 |
| gemma2:27b | 27B | 约 16 GB | 强大性能 |
特点:
使用示例:
ollama run gemma2:9b
专门用于代码生成和理解的模型。
| 版本 | 参数量 | 大小 |
|---|---|---|
| codellama:7b | 7B | 约 3.8 GB |
| codellama:13b | 13B | 约 7.0 GB |
| codellama:34b | 34B | 约 19 GB |
适用场景:
使用示例:
ollama run codellama:7b
深度求索的代码模型,中文代码场景优秀。
| 版本 | 参数量 | 大小 |
|---|---|---|
| deepseek-coder:6.7b | 6.7B | 约 4.0 GB |
使用示例:
ollama run deepseek-coder:6.7b
支持图像理解的视觉语言模型。
| 版本 | 参数量 | 大小 |
|---|---|---|
| llava:7b | 7B | 约 4.5 GB |
| llava:13b | 13B | 约 8.0 GB |
适用场景:
使用示例:
ollama run llava:7b
零一万物开源的模型,中英文双语能力强。
| 版本 | 参数量 | 大小 |
|---|---|---|
| yi:6b | 6B | 约 3.8 GB |
| yi:34b | 34B | 约 19 GB |
微软的轻量级模型。
| 版本 | 参数量 | 大小 |
|---|---|---|
| phi3:3.8b | 3.8B | 约 2.3 GB |
| phi3:14b | 14B | 约 7.9 GB |
| 内存 | 推荐模型 |
|---|---|
| 4GB | llama3.2:1b, qwen2.5:0.5b |
| 8GB | llama3.2:3b, mistral:7b, qwen2.5:3b |
| 16GB | llama3.1:8b, qwen2.5:7b, gemma2:9b |
| 32GB+ | llama3.1:70b, qwen2.5:32b, gemma2:27b |
| 场景 | 推荐模型 |
|---|---|
| 日常对话 | llama3.2:3b, mistral:7b |
| 中文对话 | qwen2.5:7b, yi:6b |
| 代码生成 | codellama:7b, deepseek-coder:6.7b |
| 轻量部署 | llama3.2:1b, phi3:3.8b |
| 高性能需求 | llama3.1:70b, qwen2.5:32b |
| 语言 | 推荐模型 |
|---|---|
| 英文为主 | llama3.2, mistral, gemma2 |
| 中文为主 | qwen2.5, yi |
| 多语言 | llama3.1, qwen2.5 |
模型名称通常包含标签,表示不同的版本或配置:
模型名称:标签
常见标签:
| 标签 | 说明 |
|---|---|
| latest | 最新版本 |
| 1b, 3b, 7b, 8b | 参数规模 |
| instruct | 指令微调版本 |
| chat | 对话优化版本 |
| q4_0, q4_k_m | 量化程度 |
量化标签:
| 标签 | 精度 | 体积 |
|---|---|---|
| q8_0 | 8-bit | 最大 |
| q6_k | 6-bit | 较大 |
| q4_k_m | 4-bit | 中等 |
| q4_0 | 4-bit | 中等 |
| q2_k | 2-bit | 最小 |
在官网可以查看每个模型的详细信息:
访问:https://ollama.com/library/<模型名称>
例如:https://ollama.com/library/llama3.2
Ollama
会自动检查模型更新:
ollama pull llama3.2
如果模型有新版本,会自动下载更新。