Ollama 命令速查表

本文档整理了 Ollama 的常用命令,方便快速查阅。

核心命令

命令说明示例
ollama serve启动服务ollama serve
ollama run运行模型ollama run llama3.2
ollama pull下载模型ollama pull llama3.2
ollama push上传模型ollama push my-model
ollama list列出模型ollama list
ollama ps运行中的模型ollama ps
ollama show模型详情ollama show llama3.2
ollama create创建模型ollama create my-model -f Modelfile
ollama cp复制模型ollama cp llama3.2 my-llama
ollama rm删除模型ollama rm llama3.2

模型管理

下载模型

# 下载最新版本
ollama pull llama3.2

# 下载特定版本
ollama pull llama3.2:3b

# 下载中文模型
ollama pull qwen2.5:7b

运行模型

# 交互式运行
ollama run llama3.2

# 直接提问
ollama run llama3.2 "写一首诗"

# 运行特定版本
ollama run llama3.2:3b

查看模型

# 列出所有模型
ollama list

# 查看模型详情
ollama show llama3.2

# 查看 Modelfile
ollama show llama3.2 --modelfile

# 查看系统提示词
ollama show llama3.2 --system

删除模型

# 删除模型
ollama rm llama3.2

# 强制删除
ollama rm llama3.2 --force

自定义模型

创建模型

# 从 Modelfile 创建
ollama create my-model -f Modelfile

# 从当前目录的 Modelfile 创建
ollama create my-model

Modelfile 示例

FROM llama3.2

SYSTEM 你是一个专业的编程助手。

PARAMETER temperature 0.7
PARAMETER num_ctx 4096

复制模型

ollama cp llama3.2 my-llama

对话命令

在对话模式中可用的命令:

命令说明
/?/help显示帮助
/set设置参数
/show显示信息
/load加载模型
/save保存会话
/clear清除对话
/bye退出

示例

>>> /set parameter temperature 0.5
>>> /show info
>>> /clear
>>> /bye

环境变量

变量说明默认值
OLLAMA_HOST服务地址127.0.0.1:11434
OLLAMA_MODELS模型路径~/.ollama/models
OLLAMA_ORIGINS跨域来源127.0.0.1
OLLAMA_DEBUG调试模式false

使用示例

OLLAMA_HOST=0.0.0.0:11434 ollama serve
OLLAMA_MODELS=/data/models ollama pull llama3.2

API 端点

端点方法说明
/api/versionGET获取版本
/api/tagsGET列出模型
/api/showPOST模型详情
/api/generatePOST生成文本
/api/chatPOST对话
/api/embeddingsPOST获取嵌入
/api/pullPOST下载模型
/api/pushPOST上传模型
/api/createPOST创建模型
/api/deleteDELETE删除模型

示例

# 获取版本
curl http://localhost:11434/api/version

# 列出模型
curl http://localhost:11434/api/tags

# 生成文本
curl http://localhost:11434/api/generate -d '{
  "model": "llama3.2",
  "prompt": "你好"
}'

常用模型

模型大小说明
llama3.2:1b1.3GB轻量版
llama3.2:3b2GB平衡版
llama3.1:8b4.7GB标准版
qwen2.5:7b4.7GB中文优化
mistral:7b4.1GB高效版
codellama:7b3.8GB代码专用

Docker 命令

# 运行容器
docker run -d --name ollama -v ollama:/root/.ollama -p 11434:11434 ollama/ollama

# GPU 支持
docker run -d --gpus=all --name ollama -v ollama:/root/.ollama -p 11434:11434 ollama/ollama

# 进入容器
docker exec -it ollama /bin/bash

# 在容器中运行命令
docker exec -it ollama ollama pull llama3.2

# 查看日志
docker logs -f ollama

systemd 命令

# 启动服务
sudo systemctl start ollama

# 停止服务
sudo systemctl stop ollama

# 重启服务
sudo systemctl restart ollama

# 查看状态
sudo systemctl status ollama

# 查看日志
sudo journalctl -u ollama -f

# 开机自启
sudo systemctl enable ollama

故障排查

# 检查服务
curl http://localhost:11434/api/version

# 查看端口
lsof -i :11434

# 查看进程
ps aux | grep ollama

# 查看日志
journalctl -u ollama -n 100

# 检查 GPU
nvidia-smi