奥拉玛
Ollama是一个本地大语言模型运行时,可让你轻松在本地机器上运行开源模型。OpenClaw与Ollama的OpenAI兼容API集成,并且在你通过OLLAMA_API_KEY(或身份验证配置文件)选择启用且未显式定义models.providers.ollama条目时,能够自动发现具备工具能力的模型。
快速入门
- 安装Ollama:https://ollama.ai
- 拉取一个模型:
- 为OpenClaw启用Ollama(任何值均可;Ollama不需要真实密钥):
- 使用Ollama模型:
模型发现(隐式提供者)
当您设置OLLAMA_API_KEY(或身份验证配置文件)且未定义models.providers.ollama时,OpenClaw会从本地Ollama实例中发现模型,该实例位于http://127.0.0.1:11434:
- 查询
/api/tags和/api/show - 仅保留报告具有
tools能力的模型 - 当模型报告
thinking时,标记为reasoning - 在可用时从
model_info["<arch>.context_length"]读取contextWindow - 将
maxTokens设置为上下文窗口的10倍 - 将所有成本设置为
0
models.providers.ollama,则会跳过自动发现,你需要手动定义模型(见下文)。
配置
基本设置(隐式发现)
启用Ollama最简单的方式是通过环境变量:显式设置(手动模型)
在以下情况下使用显式配置:- Ollama运行在其他主机或端口上。
- 你想强制指定特定的上下文窗口或模型列表。
- 你想包含不报告工具支持的模型。
OLLAMA_API_KEY,你可以省略提供者条目中的apiKey,OpenClaw会自动填充以进行可用性检查。
自定义基础URL(显式配置)
如果Ollama运行在不同的主机或端口上(显式配置会禁用自动发现,因此需要手动定义模型):模型选择
配置完成后,你的所有Ollama模型都可用:高级功能
推理模型
当Ollama在/api/show中报告thinking时,OpenClaw会将模型标记为具备推理能力:
模型成本
Ollama是免费的,并且在本地运行,因此所有模型的成本都被设置为0美元。上下文窗口
对于自动发现的模型,OpenClaw会在可用时使用Ollama报告的上下文窗口,否则默认使用8192。你可以在显式提供者配置中覆盖contextWindow和maxTokens。
故障排除
未检测到Ollama
确保Ollama正在运行,并且你已设置OLLAMA_API_KEY(或身份验证配置文件),并且未定义显式的models.providers.ollama条目:
没有可用模型
OpenClaw仅自动发现报告工具支持的模型。如果你的模型未列出,可以采取以下措施:- 拉取一个具备工具能力的模型,或
- 在
models.providers.ollama中显式定义该模型。