基本命令介绍

Ollama 提供了一套简洁的命令行工具,本章将介绍所有常用命令。全面介绍 Ollama 的命令行工具,包括模型管理、服务控制、信息查看等常用命令。

命令概览

在终端输入 ollama 可以看到所有可用命令:

ollama

输出:

Usage:
  ollama [flags]
  ollama [command]

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  ps          List running models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --help      help for ollama
  -v, --version   version for ollama

核心命令详解

ollama serve - 启动服务

启动 Ollama 服务端:

ollama serve

通常不需要手动运行这个命令,因为:

  • macOS/Windows:安装后自动启动
  • Linux:通过 systemd 管理

使用场景:

  • 调试问题时手动启动查看日志
  • 自定义服务参数
  • 在容器中运行

指定监听地址:

OLLAMA_HOST=0.0.0.0:11434 ollama serve

ollama run - 运行模型

运行并进入模型对话:

ollama run <模型名称>

示例:

# 运行模型
ollama run llama3.2

# 运行指定版本
ollama run llama3.2:3b

# 直接传入提示词
ollama run llama3.2 "写一首关于春天的诗"

参数选项:

ollama run llama3.2 --verbose
参数说明
--verbose显示详细输出

ollama pull - 下载模型

从模型库下载模型:

ollama pull <模型名称>

示例:

# 下载最新版本
ollama pull llama3.2

# 下载指定版本
ollama pull llama3.2:3b

# 下载中文模型
ollama pull qwen2.5:7b

参数选项:

ollama pull llama3.2 --insecure
参数说明
--insecure使用不安全的 HTTP 连接

ollama push - 上传模型

将本地模型上传到仓库:

ollama push <模型名称>

示例:

# 上传到默认仓库
ollama push my-model

# 上传到指定命名空间
ollama push username/my-model

注意:需要先登录 Ollama 账号才能上传模型。

ollama list - 查看已安装模型

列出本地所有已下载的模型:

ollama list

输出示例:

NAME                ID              SIZE    MODIFIED
llama3.2:latest     a80c4f17acd5    2.0 GB  2 hours ago
llama3.1:8b         8eebce8e5a1a    4.7 GB  1 day ago
qwen2.5:7b          c4e1c1e1c1e1    4.7 GB  3 days ago
mistral:latest      2ae6f7dd2933    4.1 GB  1 week ago

字段说明:

字段说明
NAME模型名称和标签
ID模型唯一标识
SIZE模型占用空间
MODIFIED最后修改时间

ollama ps - 查看运行中的模型

查看当前正在运行的模型:

ollama ps

输出示例:

NAME        ID              SIZE    PROCESSOR    UNTIL
llama3.2    a80c4f17acd5    5.2 GB  100% GPU     4 minutes from now

字段说明:

字段说明
NAME模型名称
ID模型标识
SIZE运行时占用内存
PROCESSOR处理器类型(GPU/CPU)
UNTIL模型在内存中保留的时间

ollama show - 查看模型详情

显示模型的详细信息:

ollama show <模型名称>

示例:

ollama show llama3.2

输出:

Model
  architecture        llama
  parameters          3.2B
  context length      131072
  embedding length    3072
  quantization        Q4_K_M

  Parameters
  stop      "<|start_header_id|>"
  stop      "<|end_header_id|>"
  stop      "<|eot_id|>"

  License
  LLAMA 3.2 COMMUNITY LICENSE AGREEMENT

查看模型文件信息:

ollama show llama3.2 --modelfile

输出:

# Modelfile generated by "ollama show"
# To build a new Modelfile based on this, replace FROM:
FROM llama3.2

TEMPLATE """{{ .System }}<|start_header_id|>user<|end_header_id|>

{{ .Prompt }}<|eot_id|><|start_header_id|>assistant<|end_header_id|>

"""
PARAMETER stop "<|start_header_id|>"
PARAMETER stop "<|end_header_id|>"
PARAMETER stop "<|eot_id|>"

参数选项:

参数说明
--modelfile显示 Modelfile 内容
--system显示系统提示词
--license显示许可证信息

ollama create - 创建模型

从 Modelfile 创建自定义模型:

ollama create <模型名称> -f <Modelfile路径>

示例:

# 从 Modelfile 创建
ollama create my-model -f ./Modelfile

# 从当前目录的 Modelfile 创建
ollama create my-model

Modelfile 示例:

FROM llama3.2
SYSTEM 你是一个专业的 Python 编程助手
PARAMETER temperature 0.7

ollama cp - 复制模型

复制模型到新名称:

ollama cp <源模型> <目标模型>

示例:

ollama cp llama3.2 my-llama

这在以下场景很有用:

  • 创建模型的备份
  • 基于现有模型创建新版本
  • 重命名模型

ollama rm - 删除模型

删除本地模型:

ollama rm <模型名称>

示例:

ollama rm llama3.2

删除时会提示确认:

delete 'llama3.2'? (y/N)

输入 y 确认删除。

强制删除:

ollama rm llama3.2 --force

命令组合使用

批量下载模型

for model in llama3.2 mistral qwen2.5:7b; do
  ollama pull $model
done

清理不用的模型

# 只保留 llama3.2,删除其他
ollama list | tail -n +2 | grep -v "llama3.2" | awk '{print $1}' | xargs -I {} ollama rm {}

查看所有模型的大小

ollama list | tail -n +2 | awk '{sum += $3} END {print "Total: " sum " GB"}'

环境变量

Ollama 支持通过环境变量配置行为:

变量说明默认值
OLLAMA_HOST服务地址127.0.0.1:11434
OLLAMA_MODELS模型存储路径~/.ollama/models
OLLAMA_ORIGINS允许的跨域来源127.0.0.1
OLLAMA_DEBUG启用调试模式false

使用示例:

# 指定服务地址
OLLAMA_HOST=0.0.0.0:11434 ollama serve

# 指定模型存储路径
OLLAMA_MODELS=/data/models ollama pull llama3.2

命令速查表

命令功能示例
serve启动服务ollama serve
run运行模型ollama run llama3.2
pull下载模型ollama pull llama3.2
push上传模型ollama push my-model
list列出模型ollama list
ps运行中的模型ollama ps
show模型详情ollama show llama3.2
create创建模型ollama create my-model -f Modelfile
cp复制模型ollama cp llama3.2 my-llama
rm删除模型ollama rm llama3.2

常见问题

命令执行很慢

可能是服务未启动或网络问题:

# 检查服务状态
ollama ps

# 重启服务
ollama serve

无法删除模型

如果模型正在运行,需要先停止:

# 查看运行中的模型
ollama ps

# 等待模型自动卸载或重启服务

模型名称包含特殊字符

使用引号包裹:

ollama run "model:with-special-chars"