本文档整理了 Ollama 的常用命令,方便快速查阅。
核心命令
| 命令 | 说明 | 示例 |
|---|
ollama serve | 启动服务 | ollama serve |
ollama run | 运行模型 | ollama run llama3.2 |
ollama pull | 下载模型 | ollama pull llama3.2 |
ollama push | 上传模型 | ollama push my-model |
ollama list | 列出模型 | ollama list |
ollama ps | 运行中的模型 | ollama ps |
ollama show | 模型详情 | ollama show llama3.2 |
ollama create | 创建模型 | ollama create my-model -f Modelfile |
ollama cp | 复制模型 | ollama cp llama3.2 my-llama |
ollama rm | 删除模型 | ollama rm llama3.2 |
模型管理
下载模型
ollama pull llama3.2
ollama pull llama3.2:3b
ollama pull qwen2.5:7b
运行模型
ollama run llama3.2
ollama run llama3.2 "写一首诗"
ollama run llama3.2:3b
查看模型
ollama list
ollama show llama3.2
ollama show llama3.2 --modelfile
ollama show llama3.2 --system
删除模型
ollama rm llama3.2
ollama rm llama3.2 --force
自定义模型
创建模型
ollama create my-model -f Modelfile
ollama create my-model
Modelfile 示例
FROM llama3.2
SYSTEM 你是一个专业的编程助手。
PARAMETER temperature 0.7
PARAMETER num_ctx 4096
复制模型
ollama cp llama3.2 my-llama
对话命令
在对话模式中可用的命令:
| 命令 | 说明 |
|---|
/? 或 /help | 显示帮助 |
/set | 设置参数 |
/show | 显示信息 |
/load | 加载模型 |
/save | 保存会话 |
/clear | 清除对话 |
/bye | 退出 |
示例
>>> /set parameter temperature 0.5
>>> /show info
>>> /clear
>>> /bye
环境变量
| 变量 | 说明 | 默认值 |
|---|
OLLAMA_HOST | 服务地址 | 127.0.0.1:11434 |
OLLAMA_MODELS | 模型路径 | ~/.ollama/models |
OLLAMA_ORIGINS | 跨域来源 | 127.0.0.1 |
OLLAMA_DEBUG | 调试模式 | false |
使用示例
OLLAMA_HOST=0.0.0.0:11434 ollama serve
OLLAMA_MODELS=/data/models ollama pull llama3.2
API 端点
| 端点 | 方法 | 说明 |
|---|
/api/version | GET | 获取版本 |
/api/tags | GET | 列出模型 |
/api/show | POST | 模型详情 |
/api/generate | POST | 生成文本 |
/api/chat | POST | 对话 |
/api/embeddings | POST | 获取嵌入 |
/api/pull | POST | 下载模型 |
/api/push | POST | 上传模型 |
/api/create | POST | 创建模型 |
/api/delete | DELETE | 删除模型 |
示例
curl http://localhost:11434/api/version
curl http://localhost:11434/api/tags
curl http://localhost:11434/api/generate -d '{
"model": "llama3.2",
"prompt": "你好"
}'
常用模型
| 模型 | 大小 | 说明 |
|---|
llama3.2:1b | 1.3GB | 轻量版 |
llama3.2:3b | 2GB | 平衡版 |
llama3.1:8b | 4.7GB | 标准版 |
qwen2.5:7b | 4.7GB | 中文优化 |
mistral:7b | 4.1GB | 高效版 |
codellama:7b | 3.8GB | 代码专用 |
Docker 命令
docker run -d --name ollama -v ollama:/root/.ollama -p 11434:11434 ollama/ollama
docker run -d --gpus=all --name ollama -v ollama:/root/.ollama -p 11434:11434 ollama/ollama
docker exec -it ollama /bin/bash
docker exec -it ollama ollama pull llama3.2
docker logs -f ollama
systemd 命令
sudo systemctl start ollama
sudo systemctl stop ollama
sudo systemctl restart ollama
sudo systemctl status ollama
sudo journalctl -u ollama -f
sudo systemctl enable ollama
故障排查
curl http://localhost:11434/api/version
lsof -i :11434
ps aux | grep ollama
journalctl -u ollama -n 100
nvidia-smi