OpenClaw 注册、购买与部署指南 🔥

当前热门:AI Agent 开发工具,一键镜像快速体验

本文档说明如何在捷智算平台注册并购买云主机,选择 OpenClaw 镜像快速启动,以及(可选)在服务器上用 GPU 跑本地模型并接入 OpenClaw。

镜像内置:免费 MiniMax 官方 API 体验额度,可直接体验。费用建议:若长期使用,推荐按第二部分配置 Ollama 本地模型,数据不出本机且无调用费用,更省成本。


使用前须知

  • 平台提供 OpenClaw 镜像:无需手动安装 OpenClaw,创建或重装云主机时,在镜像中选择 ubuntu22-openclaw 即可,开机即预装 OpenClaw 和 Gateway
  • 免费 MiniMax 额度:镜像预置 MiniMax 官方 API 体验额度,用完需自行配置个人 API Key;建议使用 Ollama 本地模型更省费用
  • 访问 Token 在实例内:Token 为镜像内预置固定值,实例开机后在使用指引中查看;不是控制台「API 管理」或「个人信息」中的 API Key
  • 推荐流程:www.gogpu.cn 注册 → 购买云主机 → 镜像选 ubuntu22-openclaw → 开机 → 按实例内《OpenClaw 服务使用指引》带 Token 访问(推荐 WebVNC,公网访问需在控制台设置端口 18789)

第一部分:注册、购买与快速启动

一、注册与购买

  1. 访问 https://www.gogpu.cn 并完成注册、登录
  2. 进入控制台,选择【云主机】,按需选择配置(CPU/GPU、地域等)并完成购买
  3. 在创建或重装实例时,在镜像中选择 ubuntu22-openclaw

选择 ubuntu22-openclaw 镜像

  1. 实例创建并开机后,将获得一台已预装 OpenClaw 的云主机,可按控制台或系统内提供的《OpenClaw 服务使用指引》操作

二、开机后的使用指引摘要

实例启动后,系统内会提供完整的 OpenClaw 服务使用指引,主要包括:

  • 重要提示:内置 MiniMax API Key 为体验额度,用完后需自行配置个人 API Key
  • 推荐访问方式:通过 WebVNC 桌面浏览器访问 Control UI(无需暴露公网端口,更安全)
  • 公网访问方式:在控制台【更多操作 - 设置端口】中配置内网端口 18789,使用平台分配的外网端口 + Token 访问
  • 必须带 Token 访问:无论哪种方式,访问地址均需带上 ?token=您的Token,否则会报错 device identity required
  • 服务信息与常用命令:内网地址、Token、配置文件路径及 openclaw statusopenclaw logs、重启服务等说明

详细步骤、Token 示例和命令请以实例内的《OpenClaw 服务使用指引》为准。

三、简要流程

访问 www.gogpu.cn → 注册账号 → 购买云主机 → 选择 ubuntu22-openclaw 镜像 → 启动实例 → 按使用指引配置并访问 OpenClaw

第二部分:使用 GPU 跑本地模型(可选,推荐省费方案)

镜像内置免费 MiniMax 体验额度,可直接使用;若长期使用或希望 节省调用费用,建议配置 Ollama 本地模型。按以下步骤可使 OpenClaw 同时支持「在线 MiniMax + 本地 Ollama 模型」,并默认优先使用本地模型,数据不出本机、无额外 API 费用。

一、概念说明

项目说明
Ollama在 GPU 服务器上运行的开源工具,用于下载、运行本地大模型(如 Qwen),数据不出本机
模型(如 Qwen3.5 35B)具体的大模型文件,35B 约 350 亿参数,效果好但需较大显存(建议 24GB+)

二、安装 Ollama

在 GPU 服务器上执行:

curl -fsSL https://ollama.com/install.sh | sh

安装完成后,Ollama 在本机提供 http://127.0.0.1:11434 服务,供 OpenClaw 调用。

三、下载并测试模型

Qwen3.5 35B 为例:

# 下载 35B 版本(约需 24GB+ 显存)
ollama pull qwen3.5:35b

确认模型可正常运行:

ollama run qwen3.5:35b

在交互中输入测试内容,有正常回复即可。输入 /bye 退出。

若显存不足,可改用更小版本:

ollama pull qwen3.5:14b

四、配置 OpenClaw 使用本地模型

以下配置会 覆盖 当前 OpenClaw 配置(~/.openclaw/openclaw.json),使网关同时接入 Ollama(本地 Qwen)和 MiniMax(在线),并将默认模型设为 Ollama 的 Qwen。

  1. 备份原配置(可选)
cp ~/.openclaw/openclaw.json ~/.openclaw/openclaw.json.bak
  1. 写入新配置

将下面整段复制到终端执行。若实例已预置 Token 或 MiniMax API Key,可保留现有值,只需确认 模型名(如 qwen3.5:35b)与 ollama pull 的版本一致。

cat > ~/.openclaw/openclaw.json << 'EOF'
{
  "env": {
    "MINIMAX_API_KEY": "您的MiniMax_API_Key或保留镜像预置值"
  },
  "commands": {
    "native": "auto",
    "nativeSkills": "auto",
    "restart": true,
    "ownerDisplay": "raw"
  },
  "gateway": {
    "port": 18789,
    "mode": "local",
    "bind": "lan",
    "controlUi": {
      "allowedOrigins": ["*"],
      "allowInsecureAuth": true,
      "dangerouslyDisableDeviceAuth": true
    },
    "auth": {
      "mode": "token",
      "token": "您的访问Token或保留镜像预置值"
    }
  },
  "models": {
    "mode": "merge",
    "providers": {
      "ollama": {
        "baseUrl": "http://127.0.0.1:11434/v1",
        "api": "openai-completions",
        "authHeader": false,
        "models": [
          {
            "id": "qwen3.5:35b",
            "name": "Qwen3.5-35B-Local",
            "api": "openai-completions",
            "contextWindow": 256000,
            "maxTokens": 8192
          }
        ]
      },
      "minimax": {
        "baseUrl": "https://api.minimax.chat/v1",
        "api": "openai-completions",
        "authHeader": true,
        "models": [
          {
            "id": "MiniMax-M2.5",
            "name": "MiniMax-M2.5",
            "api": "openai-completions",
            "contextWindow": 200000,
            "maxTokens": 8192
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/qwen3.5:35b"
      }
    }
  }
}
EOF

若使用 14B 等其它版本,需修改两处:models.providers.ollama.models 中的 id/name,以及 agents.defaults.model.primary

  1. 重启 OpenClaw 并检查
systemctl --user restart openclaw-gateway.service
sleep 3
openclaw status
openclaw models list

openclaw status 应显示网关正常;openclaw models list 中应能看到 Qwen3.5-35B-Local(Ollama)和 MiniMax-M2.5,默认使用 Ollama 的 Qwen。

五、配置项说明

配置项含义
models.providers.ollamaOllama 服务地址与模型列表
models.providers.minimax在线 MiniMax 模型,作补充或备选
agents.defaults.model.primary默认模型,设为 ollama/qwen3.5:35b 即优先使用本机 GPU
gateway.auth.token访问时 URL 中需带的 ?token=xxx,若镜像已预置可保留

六、常见问题

  • 显存不够 35B:改用 ollama pull qwen3.5:14b,并在 JSON 中将两处 qwen3.5:35b 改为 qwen3.5:14b
  • Ollama 未启动:执行 ollama serve 或确认安装后服务是否已自动拉起
  • OpenClaw 看不到模型:执行 openclaw models list 检查;确认 baseUrlhttp://127.0.0.1:11434/v1 且本机 ollama run 能正常对话

附录:OpenClaw 服务使用指引(实例内版)

以下为云主机实例内提供的使用指引摘要,Token 等具体值请以您实例内显示为准

重要提示

  • 内置 MiniMax API Key 为免费体验额度,用完即止;如需继续使用,请自行配置个人 API Key
  • 建议配置 Ollama 本地模型,更省费用且数据不出本机

配置个人 MiniMax API Key

  1. 访问 https://www.minimax.chat/ 注册并获取 API Key
  2. 编辑配置文件:vim /root/.openclaw/.env
  3. 修改:MINIMAX_API_KEY=你的个人key
  4. 重启服务:systemctl --user restart openclaw-gateway.service

访问方式

方式说明
WebVNC(推荐)http://127.0.0.1:18789/?token=您的Token,无需配置公网端口,更安全
公网访问控制台【更多操作 - 设置端口】配置内网端口 18789,访问 http://[公网IP]:[外网端口]/?token=您的Token

必须带 Token 访问:URL 缺少 ?token=您的Token 会报错 device identity required。从首页进入聊天页时 Token 可能丢失,需手动添加回 URL。

服务信息与常用命令

  • 内网地址:http://127.0.0.1:18789
  • 配置文件:/root/.openclaw/openclaw.json
  • API 配置:/root/.openclaw/.env
命令说明
openclaw status查看状态
openclaw logs --follow查看日志
systemctl --user restart openclaw-gateway.service重启服务
openclaw doctor服务诊断
source academic_accelerator enable网络加速(模型无法访问时)
source academic_accelerator disable禁用网络加速

学术加速须知:如遭遇恶意攻击或发现用户违法违规滥用等行为,平台将随时停止该加速功能并封号。每月平台加速量有限,若无法加速,说明当月用量已用完,用户需自行使用其他方法加速。详见 学术加速(beta)

详细说明请以实例内完整《OpenClaw 服务使用指引》为准。如有疑问,可联系捷智算平台客服。


扩展:接入飞书 / 钉钉


版本说明

本镜像预装 OpenClaw 版本:2026.3.8(commit: 3caab92)。实际版本以镜像系统为准,用户可根据需要自行更新。


使用攻略

  • 费用优化:镜像预置 MiniMax 免费额度,体验后建议配置 Ollama 本地模型,长期使用更省费用
  • 首次使用:建议先用 WebVNC 访问,避免公网暴露;熟悉流程后再按需开启公网端口
  • Token 丢失:从首页跳转到聊天页时 URL 可能丢失 Token,手动在地址栏补上 ?token=您的Token 即可
  • 切换模型:在 Control UI 中选择不同模型(如 Ollama 本地 vs MiniMax 在线),可灵活切换
  • 日志排查openclaw logs --follow 可实时查看网关日志,便于排查连接或模型调用问题
  • 网络加速:学术网络环境下若模型无法访问,可尝试 source academic_accelerator enable。注意:平台加速量有限,若无法加速说明当月用量已用完;违法违规滥用将导致停止加速并封号。
  • 接入飞书/钉钉:可接入飞书(官方插件open in new window)或钉钉(接入教程open in new window)。