Ollama 官方提供了 Python SDK,让调用 API 变得更简单。这一章我们来看看怎么安装和配置。
使用 pip 安装:
pip install ollama
或者使用 poetry:
poetry add ollama
安装完成后,直接导入使用:
import ollama
response = ollama.chat(model='llama3.2', messages=[
{'role': 'user', 'content': '你好'}
])
print(response['message']['content'])
SDK 会自动连接到本地的 Ollama 服务(默认 http://localhost:11434)。
如果 Ollama 运行在其他地址:
from ollama import Client
client = Client(host='http://192.168.1.100:11434')
response = client.chat(model='llama3.2', messages=[
{'role': 'user', 'content': '你好'}
])
也可以通过环境变量配置:
export OLLAMA_HOST=http://192.168.1.100:11434
然后在代码中:
import ollama
# 自动使用环境变量中的地址
response = ollama.chat(model='llama3.2', messages=[
{'role': 'user', 'content': '你好'}
])
SDK 底层使用 httpx,可以自定义配置:
from ollama import Client
import httpx
http_client = httpx.Client(
timeout=120.0,
proxies={
'http://': 'http://proxy.example.com:8080',
'https://': 'http://proxy.example.com:8080'
}
)
client = Client(host='http://localhost:11434', httpx_client=http_client)
写一个简单的测试脚本:
import ollama
try:
models = ollama.list()
print("连接成功!")
print(f"已安装模型: {[m['model'] for m in models['models']]}")
except Exception as e:
print(f"连接失败: {e}")
| 方式 | 优点 | 缺点 |
|---|---|---|
| SDK | 简单易用、类型提示、自动处理 | 依赖额外包 |
| 直接调用 | 无依赖、完全控制 | 需要自己处理细节 |
两种方式可以混用,根据场景选择。
SDK 依赖以下包:
httpx - HTTP 客户端pydantic - 数据验证安装 SDK 时会自动安装这些依赖。