Openclaw 快速接入 DeepSeek V4 Pro 指南
2026年4月26日 05:19
DeepSeek v4 重磅发布,博查 Model API 在首发当日便已支持v4 全系的调用,那么如何在 OpenClaw 平台中通过修改配置文件接入博查 Model API 以使用 DeepSeek V4 系列模型?
主要步骤包括定位 openclaw.json 文件、添加自定义 Provider 配置、设置默认调用模型以及重启网关验证。配置过程中需注意 contextWindow 参数调整及 api 协议凭证的正确填写,同时确保 API Key 安全。
0 前置准备
- 已安装 OpenClaw(版本 ≥ 1.8.0,低于该版本请先执行
brew upgrade openclaw升级);如果尚未安装,可以查看新手快速安装入门步骤。 - 已获取博查 API Key;(获取地址 open.bocha.cn)
- 熟悉基础的 JSON 语法。
1 新手快速安装入门
- 安装 OpenClaw
# macOS / Linux
curl -fsSL https://openclaw.ai/install.sh | bash
# Windows(PowerShell)
iwr -useb https://openclaw.ai/install.ps1 | iex
![]()
- 运行配置引导
openclaw onboard --install-daemon
选择自定义模型供应商 Custom Provider:
![]()
配置信息如下:
# Model/auth provider
Custom Provider
# API Base URL
https://api.bocha.cn/v1
# How do you want to provide this API key?
Paste API key now
# API Key (leave blank if not required)
sk-******
# Endpoint compatibility
Anthropic-compatible
# Model ID
deepseek-v4-pro
# Verification successful.
# Endpoint ID
custom-api-bocha-cn
# Model alias (optional)
deepseek-v4-pro
![]()
2 更新模型配置
配置文件定位
安装完 OpenClaw 后,其所有模型、渠道配置都集中在 openclaw.json 文件中,不同操作系统的默认路径如下:
| 操作系统 | 配置文件默认路径 | 快速打开方式 |
|---|---|---|
| Windows | C:\Users<你的用户名>.openclaw\openclaw.json | 按 Win+R,输入路径直接跳转 |
| macOS | ~/.openclaw/openclaw.json | 终端执行 open ~/.openclaw/openclaw.json |
| Linux | ~/.openclaw/openclaw.json | 终端执行 vim ~/.openclaw/openclaw.json |
提示:如果找不到文件,先执行
openclaw init初始化配置(执行后会自动生成配置文件)。
找到对应的 openclaw.json 配置文件,变更配置如下:
{
"agents": {
"defaults": {
"models": {
"custom-api-bocha-cn/deepseek-v4-pro": {
"alias": "deepseek-v4-pro"
}
},
"model": {
"primary": "custom-api-bocha-cn/deepseek-v4-pro"
}
}
},
"tools": {
"profile": "coding"
},
"models": {
"mode": "merge",
"providers": {
"custom-api-bocha-cn": {
"baseUrl": "https://api.bocha.cn/v1",
"api": "anthropic-messages",
"apiKey": "sk-******",
"models": [
{
"id": "deepseek-v4-pro",
"name": "deepseek-v4-pro (Custom Provider)",
"api": "anthropic-messages",
"baseUrl": "https://api.bocha.cn/v1",
"reasoning": false,
"input": [
"text"
],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 1000000,
"maxTokens": 384000
}
]
}
}
}
}
重要参数:
contextWindow 1000000 上下文窗口:1M tokens(V4 全系)
maxTokens 384000 最大输出:384K tokens(官方上限)
保存并验证
完成以上修改后,保存文件。建议先重启 OpenClaw 网关让配置生效。
- 重启 OpenClaw 网关:
openclaw gateway restart
- 验证模型挂载状态:
openclaw models status
在 Web UI 聊天中,输入一条消息测试模型:
![]()
或者在命令行输入 openclaw chat,再与 agent 对话:
![]()
![]()