OpenClaw 注册、购买与部署指南 🔥
当前热门:AI Agent 开发工具,一键镜像快速体验
本文档说明如何在捷智算平台注册并购买云主机,选择 OpenClaw 镜像快速启动,以及(可选)在服务器上用 GPU 跑本地模型并接入 OpenClaw。
镜像内置:免费 MiniMax 官方 API 体验额度,可直接体验。费用建议:若长期使用,推荐按第二部分配置 Ollama 本地模型,数据不出本机且无调用费用,更省成本。
使用前须知
- 平台提供 OpenClaw 镜像:无需手动安装 OpenClaw,创建或重装云主机时,在镜像中选择 ubuntu22-openclaw 即可,开机即预装 OpenClaw 和 Gateway
- 免费 MiniMax 额度:镜像预置 MiniMax 官方 API 体验额度,用完需自行配置个人 API Key;建议使用 Ollama 本地模型更省费用
- 访问 Token 在实例内:Token 为镜像内预置固定值,实例开机后在使用指引中查看;不是控制台「API 管理」或「个人信息」中的 API Key
- 推荐流程:www.gogpu.cn 注册 → 购买云主机 → 镜像选 ubuntu22-openclaw → 开机 → 按实例内《OpenClaw 服务使用指引》带 Token 访问(推荐 WebVNC,公网访问需在控制台设置端口 18789)
第一部分:注册、购买与快速启动
一、注册与购买
- 访问 https://www.gogpu.cn 并完成注册、登录
- 进入控制台,选择【云主机】,按需选择配置(CPU/GPU、地域等)并完成购买
- 在创建或重装实例时,在镜像中选择
ubuntu22-openclaw

- 实例创建并开机后,将获得一台已预装 OpenClaw 的云主机,可按控制台或系统内提供的《OpenClaw 服务使用指引》操作
二、开机后的使用指引摘要
实例启动后,系统内会提供完整的 OpenClaw 服务使用指引,主要包括:
- 重要提示:内置 MiniMax API Key 为体验额度,用完后需自行配置个人 API Key
- 推荐访问方式:通过 WebVNC 桌面浏览器访问 Control UI(无需暴露公网端口,更安全)
- 公网访问方式:在控制台【更多操作 - 设置端口】中配置内网端口 18789,使用平台分配的外网端口 + Token 访问
- 必须带 Token 访问:无论哪种方式,访问地址均需带上
?token=您的Token,否则会报错device identity required - 服务信息与常用命令:内网地址、Token、配置文件路径及
openclaw status、openclaw logs、重启服务等说明
详细步骤、Token 示例和命令请以实例内的《OpenClaw 服务使用指引》为准。
三、简要流程
访问 www.gogpu.cn → 注册账号 → 购买云主机 → 选择 ubuntu22-openclaw 镜像 → 启动实例 → 按使用指引配置并访问 OpenClaw
第二部分:使用 GPU 跑本地模型(可选,推荐省费方案)
镜像内置免费 MiniMax 体验额度,可直接使用;若长期使用或希望 节省调用费用,建议配置 Ollama 本地模型。按以下步骤可使 OpenClaw 同时支持「在线 MiniMax + 本地 Ollama 模型」,并默认优先使用本地模型,数据不出本机、无额外 API 费用。
一、概念说明
| 项目 | 说明 |
|---|---|
| Ollama | 在 GPU 服务器上运行的开源工具,用于下载、运行本地大模型(如 Qwen),数据不出本机 |
| 模型(如 Qwen3.5 35B) | 具体的大模型文件,35B 约 350 亿参数,效果好但需较大显存(建议 24GB+) |
二、安装 Ollama
在 GPU 服务器上执行:
curl -fsSL https://ollama.com/install.sh | sh
安装完成后,Ollama 在本机提供 http://127.0.0.1:11434 服务,供 OpenClaw 调用。
三、下载并测试模型
以 Qwen3.5 35B 为例:
# 下载 35B 版本(约需 24GB+ 显存)
ollama pull qwen3.5:35b
确认模型可正常运行:
ollama run qwen3.5:35b
在交互中输入测试内容,有正常回复即可。输入 /bye 退出。
若显存不足,可改用更小版本:
ollama pull qwen3.5:14b
四、配置 OpenClaw 使用本地模型
以下配置会 覆盖 当前 OpenClaw 配置(~/.openclaw/openclaw.json),使网关同时接入 Ollama(本地 Qwen)和 MiniMax(在线),并将默认模型设为 Ollama 的 Qwen。
- 备份原配置(可选)
cp ~/.openclaw/openclaw.json ~/.openclaw/openclaw.json.bak
- 写入新配置
将下面整段复制到终端执行。若实例已预置 Token 或 MiniMax API Key,可保留现有值,只需确认 模型名(如 qwen3.5:35b)与 ollama pull 的版本一致。
cat > ~/.openclaw/openclaw.json << 'EOF'
{
"env": {
"MINIMAX_API_KEY": "您的MiniMax_API_Key或保留镜像预置值"
},
"commands": {
"native": "auto",
"nativeSkills": "auto",
"restart": true,
"ownerDisplay": "raw"
},
"gateway": {
"port": 18789,
"mode": "local",
"bind": "lan",
"controlUi": {
"allowedOrigins": ["*"],
"allowInsecureAuth": true,
"dangerouslyDisableDeviceAuth": true
},
"auth": {
"mode": "token",
"token": "您的访问Token或保留镜像预置值"
}
},
"models": {
"mode": "merge",
"providers": {
"ollama": {
"baseUrl": "http://127.0.0.1:11434/v1",
"api": "openai-completions",
"authHeader": false,
"models": [
{
"id": "qwen3.5:35b",
"name": "Qwen3.5-35B-Local",
"api": "openai-completions",
"contextWindow": 256000,
"maxTokens": 8192
}
]
},
"minimax": {
"baseUrl": "https://api.minimax.chat/v1",
"api": "openai-completions",
"authHeader": true,
"models": [
{
"id": "MiniMax-M2.5",
"name": "MiniMax-M2.5",
"api": "openai-completions",
"contextWindow": 200000,
"maxTokens": 8192
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "ollama/qwen3.5:35b"
}
}
}
}
EOF
若使用 14B 等其它版本,需修改两处:models.providers.ollama.models 中的 id/name,以及 agents.defaults.model.primary。
- 重启 OpenClaw 并检查
systemctl --user restart openclaw-gateway.service
sleep 3
openclaw status
openclaw models list
openclaw status 应显示网关正常;openclaw models list 中应能看到 Qwen3.5-35B-Local(Ollama)和 MiniMax-M2.5,默认使用 Ollama 的 Qwen。
五、配置项说明
| 配置项 | 含义 |
|---|---|
models.providers.ollama | Ollama 服务地址与模型列表 |
models.providers.minimax | 在线 MiniMax 模型,作补充或备选 |
agents.defaults.model.primary | 默认模型,设为 ollama/qwen3.5:35b 即优先使用本机 GPU |
gateway.auth.token | 访问时 URL 中需带的 ?token=xxx,若镜像已预置可保留 |
六、常见问题
- 显存不够 35B:改用
ollama pull qwen3.5:14b,并在 JSON 中将两处qwen3.5:35b改为qwen3.5:14b - Ollama 未启动:执行
ollama serve或确认安装后服务是否已自动拉起 - OpenClaw 看不到模型:执行
openclaw models list检查;确认baseUrl为http://127.0.0.1:11434/v1且本机ollama run能正常对话
附录:OpenClaw 服务使用指引(实例内版)
以下为云主机实例内提供的使用指引摘要,Token 等具体值请以您实例内显示为准。
重要提示
- 内置 MiniMax API Key 为免费体验额度,用完即止;如需继续使用,请自行配置个人 API Key
- 建议配置 Ollama 本地模型,更省费用且数据不出本机
配置个人 MiniMax API Key
- 访问 https://www.minimax.chat/ 注册并获取 API Key
- 编辑配置文件:
vim /root/.openclaw/.env - 修改:
MINIMAX_API_KEY=你的个人key - 重启服务:
systemctl --user restart openclaw-gateway.service
访问方式
| 方式 | 说明 |
|---|---|
| WebVNC(推荐) | http://127.0.0.1:18789/?token=您的Token,无需配置公网端口,更安全 |
| 公网访问 | 控制台【更多操作 - 设置端口】配置内网端口 18789,访问 http://[公网IP]:[外网端口]/?token=您的Token |
必须带 Token 访问:URL 缺少 ?token=您的Token 会报错 device identity required。从首页进入聊天页时 Token 可能丢失,需手动添加回 URL。
服务信息与常用命令
- 内网地址:
http://127.0.0.1:18789 - 配置文件:
/root/.openclaw/openclaw.json - API 配置:
/root/.openclaw/.env
| 命令 | 说明 |
|---|---|
openclaw status | 查看状态 |
openclaw logs --follow | 查看日志 |
systemctl --user restart openclaw-gateway.service | 重启服务 |
openclaw doctor | 服务诊断 |
source academic_accelerator enable | 网络加速(模型无法访问时) |
source academic_accelerator disable | 禁用网络加速 |
学术加速须知:如遭遇恶意攻击或发现用户违法违规滥用等行为,平台将随时停止该加速功能并封号。每月平台加速量有限,若无法加速,说明当月用量已用完,用户需自行使用其他方法加速。详见 学术加速(beta)。
详细说明请以实例内完整《OpenClaw 服务使用指引》为准。如有疑问,可联系捷智算平台客服。
扩展:接入飞书 / 钉钉
- 飞书:使用飞书官方插件,以你的身份读写飞书文档、消息、日历、多维表格等。
OpenClaw 飞书官方插件使用指南(飞书官网) - 钉钉:接入钉钉群聊/私聊,通过 @机器人 触发回复。
钉钉接入教程(OpenClaw 中文站)|钉钉接入指南(无影灵构)
版本说明
本镜像预装 OpenClaw 版本:2026.3.8(commit: 3caab92)。实际版本以镜像系统为准,用户可根据需要自行更新。
使用攻略
- 费用优化:镜像预置 MiniMax 免费额度,体验后建议配置 Ollama 本地模型,长期使用更省费用
- 首次使用:建议先用 WebVNC 访问,避免公网暴露;熟悉流程后再按需开启公网端口
- Token 丢失:从首页跳转到聊天页时 URL 可能丢失 Token,手动在地址栏补上
?token=您的Token即可 - 切换模型:在 Control UI 中选择不同模型(如 Ollama 本地 vs MiniMax 在线),可灵活切换
- 日志排查:
openclaw logs --follow可实时查看网关日志,便于排查连接或模型调用问题 - 网络加速:学术网络环境下若模型无法访问,可尝试
source academic_accelerator enable。注意:平台加速量有限,若无法加速说明当月用量已用完;违法违规滥用将导致停止加速并封号。 - 接入飞书/钉钉:可接入飞书(官方插件)或钉钉(接入教程)。
