安装与配置

本章将带你完成 Ollama 的安装和基本配置。详细介绍如何在 macOS、Linux 和 Windows 上安装和配置 Ollama,包括环境变量设置和常见安装问题解决。

macOS 安装

系统要求

要求说明
操作系统macOS 11 Big Sur 或更高版本
芯片Intel 或 Apple Silicon(M1/M2/M3)
内存建议 8GB 以上

安装步骤

方法一:官网下载(推荐)

  1. 访问官网下载页面:https://ollama.com/download
  2. 点击 "Download for Mac"
  3. 下载完成后,打开 zip 文件
  4. 将 Ollama 拖到 Applications 文件夹
  5. 打开终端,输入 ollama 验证安装

方法二:Homebrew 安装

brew install ollama

验证安装

打开终端,运行:

ollama --version

看到版本号就说明安装成功了:

ollama version is 0.1.x

Linux 安装

系统要求

要求说明
发行版Ubuntu 18.04+, Debian 10+, Fedora, CentOS 等
架构x86_64 或 ARM64
内存建议 8GB 以上

一键安装

打开终端,运行官方安装脚本:

curl -fsSL https://ollama.com/install.sh | sh

这个脚本会自动:

  1. 检测系统架构
  2. 下载对应版本
  3. 安装到 /usr/local/bin
  4. 配置 systemd 服务

手动安装

如果自动安装失败,可以手动安装:

# 下载
curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/local/bin/ollama

# 添加执行权限
chmod +x /usr/local/bin/ollama

配置系统服务

创建 systemd 服务文件:

sudo nano /etc/systemd/system/ollama.service

写入以下内容:

[Unit]
Description=Ollama Service
After=network.target

[Service]
Type=simple
User=ollama
ExecStart=/usr/local/bin/ollama serve
Restart=always
RestartSec=3

[Install]
WantedBy=multi-user.target

启动服务:

# 创建用户
sudo useradd -r -s /bin/false ollama

# 启动服务
sudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl start ollama

Windows 安装

系统要求

要求说明
操作系统Windows 10/11
架构x86_64
WSL2需要启用

方法一:直接安装(推荐)

  1. 访问官网:https://ollama.com/download
  2. 点击 "Download for Windows"
  3. 运行安装程序
  4. 按提示完成安装

方法二:WSL2 安装

如果遇到问题,可以通过 WSL2 安装:

1. 启用 WSL2

以管理员身份打开 PowerShell:

wsl --install

重启电脑后,WSL2 会自动安装 Ubuntu。

2. 在 WSL2 中安装 Ollama

打开 Ubuntu 终端,运行:

curl -fsSL https://ollama.com/install.sh | sh

Windows 防火墙设置

首次运行时,Windows 可能会弹出防火墙提示,选择"允许访问"即可。

Docker 安装

如果你熟悉 Docker,也可以用 Docker 运行:

基础运行

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

GPU 加速(NVIDIA)

需要安装 nvidia-container-toolkit:

# Ubuntu/Debian
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
  sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#' | \
  sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list

sudo apt-get update
sudo apt-get install -y nvidia-container-toolkit
sudo nvidia-ctk runtime configure --runtime=docker
sudo systemctl restart docker

运行带 GPU 支持的容器:

docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

环境变量配置

Ollama 支持多个环境变量来自定义配置:

常用环境变量

变量名说明默认值
OLLAMA_HOST服务监听地址127.0.0.1:11434
OLLAMA_MODELS模型存储路径~/.ollama/models
OLLAMA_ORIGINS允许的跨域来源*

设置环境变量

macOS/Linux(bash)

编辑 ~/.bashrc~/.zshrc

export OLLAMA_HOST=0.0.0.0:11434
export OLLAMA_MODELS=/data/ollama/models

使配置生效:

source ~/.bashrc

macOS/Linux(systemd 服务)

编辑服务配置:

sudo systemctl edit ollama.service

添加:

[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_MODELS=/data/ollama/models"

重启服务:

sudo systemctl restart ollama

Windows

系统属性 → 高级 → 环境变量 → 新建用户变量

或者在 PowerShell 中:

[Environment]::SetEnvironmentVariable("OLLAMA_HOST", "0.0.0.0:11434", "User")

模型存储位置

默认情况下,模型存储在以下位置:

系统路径
macOS~/.ollama/models
Linux/usr/share/ollama/.ollama/models
WindowsC:\Users<用户名>.ollama\models

可以通过 OLLAMA_MODELS 环境变量修改。

GPU 配置

NVIDIA GPU

Ollama 会自动检测 NVIDIA GPU。确保:

  1. 安装了 NVIDIA 驱动
  2. 驱动版本 >= 450.80.02(Linux)或 >= 452.39(Windows)

验证 GPU 是否被识别:

nvidia-smi

AMD GPU(Linux)

需要安装 ROCm:

# Ubuntu
sudo apt-get install rocm

Apple Silicon

macOS 上 Apple Silicon 会自动使用 Metal 加速,无需额外配置。

查看 GPU 使用情况

运行模型时,可以查看 GPU 使用:

# NVIDIA
watch -n 1 nvidia-smi

# Apple Silicon
sudo powermetrics --samplers gpu_power -i 1000

验证安装

安装完成后,运行以下命令验证:

# 查看版本
ollama --version

# 查看帮助
ollama --help

# 启动服务(如果未自动启动)
ollama serve

常见安装问题

命令找不到

问题:运行 ollama 提示 "command not found"

解决

检查是否在 PATH 中:

# Linux/macOS
echo $PATH
ls /usr/local/bin/ollama

# 如果文件存在但不在 PATH 中
export PATH=$PATH:/usr/local/bin

权限问题

问题:提示权限不足

解决

# Linux/macOS
sudo chmod +x /usr/local/bin/ollama

端口被占用

问题:11434 端口被占用

解决

# 查看端口占用
lsof -i :11434

# 或修改端口
export OLLAMA_HOST=127.0.0.1:11435
ollama serve

Windows 安装失败

问题:Windows 安装程序无法运行

解决

  1. 确保已启用 WSL2
  2. 以管理员身份运行安装程序
  3. 尝试使用 WSL2 方式安装

GPU 未被识别

问题:有 GPU 但未使用

解决

  1. 更新 GPU 驱动
  2. 检查 CUDA/ROCm 是否正确安装
  3. 查看日志:journalctl -u ollama -f

卸载

macOS

# 删除应用
rm -rf /Applications/Ollama.app

# 删除模型文件(可选)
rm -rf ~/.ollama

Linux

# 停止服务
sudo systemctl stop ollama
sudo systemctl disable ollama

# 删除文件
sudo rm /usr/local/bin/ollama
sudo rm -rf /usr/share/ollama

# 删除模型文件(可选)
rm -rf ~/.ollama

Windows

通过控制面板 → 程序和功能 卸载,或直接删除安装目录。