模型库介绍

Ollama 支持众多开源大模型,介绍 Ollama 支持的各类模型,包括 Llama、Mistral、Qwen 等主流模型的特点和适用场景。本章将介绍主要的模型系列。

官方模型库

访问 Ollama 官方模型库:https://ollama.com/library

这里汇集了所有可用的模型,你可以:

  • 浏览模型列表
  • 查看模型详情
  • 查看模型大小
  • 阅读模型说明

Llama 系列

Llama 是 Meta(Facebook)开源的模型系列,是目前最流行的开源大模型之一。

Llama 3.2

版本参数量大小特点
llama3.2:1b1B约 1.3 GB极轻量,适合边缘设备
llama3.2:3b3B约 2.0 GB平衡性能,日常使用推荐
llama3.2:11b11B约 6.5 GB更强性能,需要更多资源

适用场景:

  • 通用对话
  • 文本生成
  • 代码辅助
  • 多语言任务

使用示例:

ollama run llama3.2:3b

Llama 3.1

版本参数量大小特点
llama3.1:8b8B约 4.7 GB性能优秀,推荐配置
llama3.1:70b70B约 40 GB顶级性能,需要强大硬件

特点:

  • 支持 128K 上下文
  • 多语言能力强
  • 推理能力出色

Mistral 系列

Mistral AI 开发的模型,以高效著称。

Mistral

版本参数量大小特点
mistral:7b7B约 4.1 GB高效,资源占用低
mixtral:8x7b47B约 26 GB混合专家模型

适用场景:

  • 资源受限环境
  • 需要快速响应
  • 通用任务

使用示例:

ollama run mistral:7b

Qwen 系列

通义千问是阿里巴巴开源的中文大模型,中文能力突出。

Qwen 2.5

版本参数量大小特点
qwen2.5:0.5b0.5B约 0.5 GB极轻量
qwen2.5:1.5b1.5B约 1.1 GB轻量级
qwen2.5:3b3B约 2.0 GB平衡选择
qwen2.5:7b7B约 4.7 GB性能优秀
qwen2.5:14b14B约 9.0 GB更强性能
qwen2.5:32b32B约 19 GB顶级性能

特点:

  • 中文理解能力强
  • 支持长上下文
  • 数学和逻辑推理好

适用场景:

  • 中文对话
  • 中文写作
  • 中文代码注释
  • 中文文档处理

使用示例:

ollama run qwen2.5:7b

Gemma 系列

Google 开源的轻量级模型。

Gemma 2

版本参数量大小特点
gemma2:2b2B约 1.6 GB极轻量
gemma2:9b9B约 5.5 GB平衡性能
gemma2:27b27B约 16 GB强大性能

特点:

  • 轻量高效
  • 多语言支持
  • 安全性高

使用示例:

ollama run gemma2:9b

代码专用模型

CodeLlama

专门用于代码生成和理解的模型。

版本参数量大小
codellama:7b7B约 3.8 GB
codellama:13b13B约 7.0 GB
codellama:34b34B约 19 GB

适用场景:

  • 代码生成
  • 代码解释
  • 代码补全
  • 代码审查

使用示例:

ollama run codellama:7b

DeepSeek Coder

深度求索的代码模型,中文代码场景优秀。

版本参数量大小
deepseek-coder:6.7b6.7B约 4.0 GB

使用示例:

ollama run deepseek-coder:6.7b

多模态模型

Llava

支持图像理解的视觉语言模型。

版本参数量大小
llava:7b7B约 4.5 GB
llava:13b13B约 8.0 GB

适用场景:

  • 图像描述
  • 视觉问答
  • 图像分类

使用示例:

ollama run llava:7b

其他模型

Yi 系列

零一万物开源的模型,中英文双语能力强。

版本参数量大小
yi:6b6B约 3.8 GB
yi:34b34B约 19 GB

Phi 系列

微软的轻量级模型。

版本参数量大小
phi3:3.8b3.8B约 2.3 GB
phi3:14b14B约 7.9 GB

模型选择指南

按硬件配置选择

内存推荐模型
4GBllama3.2:1b, qwen2.5:0.5b
8GBllama3.2:3b, mistral:7b, qwen2.5:3b
16GBllama3.1:8b, qwen2.5:7b, gemma2:9b
32GB+llama3.1:70b, qwen2.5:32b, gemma2:27b

按使用场景选择

场景推荐模型
日常对话llama3.2:3b, mistral:7b
中文对话qwen2.5:7b, yi:6b
代码生成codellama:7b, deepseek-coder:6.7b
轻量部署llama3.2:1b, phi3:3.8b
高性能需求llama3.1:70b, qwen2.5:32b

按语言选择

语言推荐模型
英文为主llama3.2, mistral, gemma2
中文为主qwen2.5, yi
多语言llama3.1, qwen2.5

模型标签说明

模型名称通常包含标签,表示不同的版本或配置:

模型名称:标签

常见标签:

标签说明
latest最新版本
1b, 3b, 7b, 8b参数规模
instruct指令微调版本
chat对话优化版本
q4_0, q4_k_m量化程度

量化标签:

标签精度体积
q8_08-bit最大
q6_k6-bit较大
q4_k_m4-bit中等
q4_04-bit中等
q2_k2-bit最小

查看模型详情

在官网可以查看每个模型的详细信息:

  • 模型描述
  • 性能基准
  • 使用许可
  • 更新日志

访问:https://ollama.com/library/<模型名称>

例如:https://ollama.com/library/llama3.2

模型更新

Ollama

会自动检查模型更新:

ollama pull llama3.2

如果模型有新版本,会自动下载更新。

练习

  1. 访问 Ollama 模型库,浏览可用模型
  2. 根据你的硬件选择合适的模型
  3. 下载并运行一个中文模型
  4. 下载并运行一个代码模型
  5. 对比不同模型的响应质量