本章将带你完成 Ollama 的安装和基本配置。详细介绍如何在 macOS、Linux 和 Windows 上安装和配置 Ollama,包括环境变量设置和常见安装问题解决。
| 要求 | 说明 |
|---|---|
| 操作系统 | macOS 11 Big Sur 或更高版本 |
| 芯片 | Intel 或 Apple Silicon(M1/M2/M3) |
| 内存 | 建议 8GB 以上 |
方法一:官网下载(推荐)
ollama 验证安装方法二:Homebrew 安装
brew install ollama
打开终端,运行:
ollama --version
看到版本号就说明安装成功了:
ollama version is 0.1.x
| 要求 | 说明 |
|---|---|
| 发行版 | Ubuntu 18.04+, Debian 10+, Fedora, CentOS 等 |
| 架构 | x86_64 或 ARM64 |
| 内存 | 建议 8GB 以上 |
打开终端,运行官方安装脚本:
curl -fsSL https://ollama.com/install.sh | sh
这个脚本会自动:
如果自动安装失败,可以手动安装:
# 下载
curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/local/bin/ollama
# 添加执行权限
chmod +x /usr/local/bin/ollama
创建 systemd 服务文件:
sudo nano /etc/systemd/system/ollama.service
写入以下内容:
[Unit]
Description=Ollama Service
After=network.target
[Service]
Type=simple
User=ollama
ExecStart=/usr/local/bin/ollama serve
Restart=always
RestartSec=3
[Install]
WantedBy=multi-user.target
启动服务:
# 创建用户
sudo useradd -r -s /bin/false ollama
# 启动服务
sudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl start ollama
| 要求 | 说明 |
|---|---|
| 操作系统 | Windows 10/11 |
| 架构 | x86_64 |
| WSL2 | 需要启用 |
如果遇到问题,可以通过 WSL2 安装:
1. 启用 WSL2
以管理员身份打开 PowerShell:
wsl --install
重启电脑后,WSL2 会自动安装 Ubuntu。
2. 在 WSL2 中安装 Ollama
打开 Ubuntu 终端,运行:
curl -fsSL https://ollama.com/install.sh | sh
首次运行时,Windows 可能会弹出防火墙提示,选择"允许访问"即可。
如果你熟悉 Docker,也可以用 Docker 运行:
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
需要安装 nvidia-container-toolkit:
# Ubuntu/Debian
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#' | \
sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
sudo apt-get update
sudo apt-get install -y nvidia-container-toolkit
sudo nvidia-ctk runtime configure --runtime=docker
sudo systemctl restart docker
运行带 GPU 支持的容器:
docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
Ollama 支持多个环境变量来自定义配置:
| 变量名 | 说明 | 默认值 |
|---|---|---|
| OLLAMA_HOST | 服务监听地址 | 127.0.0.1:11434 |
| OLLAMA_MODELS | 模型存储路径 | ~/.ollama/models |
| OLLAMA_ORIGINS | 允许的跨域来源 | * |
macOS/Linux(bash)
编辑 ~/.bashrc 或 ~/.zshrc:
export OLLAMA_HOST=0.0.0.0:11434
export OLLAMA_MODELS=/data/ollama/models
使配置生效:
source ~/.bashrc
macOS/Linux(systemd 服务)
编辑服务配置:
sudo systemctl edit ollama.service
添加:
[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_MODELS=/data/ollama/models"
重启服务:
sudo systemctl restart ollama
Windows
系统属性 → 高级 → 环境变量 → 新建用户变量
或者在 PowerShell 中:
[Environment]::SetEnvironmentVariable("OLLAMA_HOST", "0.0.0.0:11434", "User")
默认情况下,模型存储在以下位置:
| 系统 | 路径 |
|---|---|
| macOS | ~/.ollama/models |
| Linux | /usr/share/ollama/.ollama/models |
| Windows | C:\Users<用户名>.ollama\models |
可以通过 OLLAMA_MODELS 环境变量修改。
Ollama 会自动检测 NVIDIA GPU。确保:
验证 GPU 是否被识别:
nvidia-smi
需要安装 ROCm:
# Ubuntu
sudo apt-get install rocm
macOS 上 Apple Silicon 会自动使用 Metal 加速,无需额外配置。
运行模型时,可以查看 GPU 使用:
# NVIDIA
watch -n 1 nvidia-smi
# Apple Silicon
sudo powermetrics --samplers gpu_power -i 1000
安装完成后,运行以下命令验证:
# 查看版本
ollama --version
# 查看帮助
ollama --help
# 启动服务(如果未自动启动)
ollama serve
问题:运行 ollama 提示 "command not found"
解决:
检查是否在 PATH 中:
# Linux/macOS
echo $PATH
ls /usr/local/bin/ollama
# 如果文件存在但不在 PATH 中
export PATH=$PATH:/usr/local/bin
问题:提示权限不足
解决:
# Linux/macOS
sudo chmod +x /usr/local/bin/ollama
问题:11434 端口被占用
解决:
# 查看端口占用
lsof -i :11434
# 或修改端口
export OLLAMA_HOST=127.0.0.1:11435
ollama serve
问题:Windows 安装程序无法运行
解决:
问题:有 GPU 但未使用
解决:
journalctl -u ollama -f# 删除应用
rm -rf /Applications/Ollama.app
# 删除模型文件(可选)
rm -rf ~/.ollama
# 停止服务
sudo systemctl stop ollama
sudo systemctl disable ollama
# 删除文件
sudo rm /usr/local/bin/ollama
sudo rm -rf /usr/share/ollama
# 删除模型文件(可选)
rm -rf ~/.ollama
通过控制面板 → 程序和功能 卸载,或直接删除安装目录。