openclaw config set agents.defaults.model.primary "seek/deepseek-chat" 配置DeepSeek提供商的具体参数
openclaw config set models.providers.deepseek.type openai
openclaw config set models.providers.deepseek.baseUrl https://api.deepseek.com/v1
openclaw config set models.providers.deepseek.apiKey 你的DeepSeek_API_Key
```
配置完成后,使用 `openclaw gateway restart` 命令重启网关服务,使配置生效。然后通过 `openclaw gateway status` 检查服务状态。
1. 设置备用模型(Fallback)
网络不可能永远稳定,API也可能偶尔抽风。一个专业的配置应该准备备用方案(Fallback)。你可以在配置中指定一个或多个备用模型,当主要模型调用失败时,系统会自动尝试备用模型。
```json
"agents" {
"s" {
"" "primary" "seek/deepseek-chat" "backs" ["ai/gpt-3.5-turbo" "ama/qwen2.5:7b"] // 备用模型列表
}
}
}
```
2. 安全!安全!还是安全!
OpenClaw能力强大,意味着它一旦被恶意利用,风险也高。除了保管好`apiKey`,还应:
*切勿将配置文件分享或上传到公开仓库。
*定期检查并更新密钥。
*在可能的情况下,为API Key设置使用量限额和IP白名单。
3. 本地模型配置要点
如果选择Ollama本地模型,配置会更简单一些。确保Ollama服务在本地运行(通常地址是 `http://localhost:11434`),然后在OpenClaw中配置一个`ollama`类型的提供商即可。
```bash
openclaw config set models.providers.ollama.type ollama
openclaw config set models.providers.ollama.baseUrl http://localhost:11434
openclaw config set agents.defaults.model.primary "ollama/qwen2.5:7b"4. 验证与调试
配置后如果出现问题,别慌。按以下步骤排查:
*检查服务状态:`openclaw gateway status`。
*查看实时日志:`openclaw logs --follow`,这能帮你看到详细的错误信息。
*运行诊断命令:`openclaw doctor` 或 `openclaw doctor --repair` 可以检测并尝试修复一些常见问题。
为OpenClaw配置模型,就像为一位超级员工进行岗前培训。选择合适的“大脑”,决定了它未来工作的效率和上限。无论是追求极致性能,还是坚守数据隐私,或是寻找最佳性价比,总有一种方案适合你。
记住,没有“最好”的模型,只有“最适合”你当前场景的模型。而且,OpenClaw的灵活性允许你随时根据需求变化进行调整。今天你可以用免费的本地模型处理日常琐事,明天为了一个关键项目临时切换到顶级的云端模型。这种按需取用、自由组合的能力,正是OpenClaw真正的威力所在。
希望这篇指南能帮你扫清模型配置的障碍。现在,就去给你的“龙虾”装上最强、最合适的大脑,让它开始为你征服数字世界的任务吧!
