OpenClaw 是一个用于构建、运行和编排 AI Agent 的通用框架,支持对话、工具调用与多模型接入。本项目提供了一键部署到云原生环境的完整解决方案。
⚠️ 使用前请先 Fork 本项目
在进行云原生开发或一键部署之前,请先将本项目 Fork 到你自己的仓库。 所有构建、部署和配置都会基于你 Fork 后的仓库执行。
Fork 完成后,进入你的仓库页面:
点击页面上的「 替我自由 」 按钮
💡 该按钮由平台提供,仅在 Fork 后的仓库中可见
即可一键启动 OpenClaw 🚀

系统会自动:
全过程无需手动编写 Dockerfile、配置 Nginx 或设置环境变量。
无需手动配置环境,开箱即用,爽就完事了 👍
如果你想在自己的仓库里复用 OpenClaw 的 NPC 能力,可以按下面配置:
.cnb.yml 中引用 NPC.yml(或将 NPC.yml 的 .npc 与事件绑定配置合并到你的 .cnb.yml)。.cnb/settings.yml 中配置 knowledgeBase.roles,即可定义你自己的 NPC 名称、头像和提示词(Prompt),并继续使用 OpenClaw 作为底层基座。示例:在 .cnb.yml 里直接引用远程 NPC.yml
include:
- https://cnb.cool/Bring/AGI/OpenClaw/-/blob/main/NPC.yml
默认会使用 OpenClaw 内置的模型地址、密钥和模型 ID。
你可以通过以下参数按需覆盖:
PLUGIN_API_URL:覆盖模型服务地址(可选)PLUGIN_API_KEY:覆盖模型服务密钥(可选)PLUGIN_MODEL:覆盖模型 ID(可选)示例 1:在 .npc 中通过 env 直接传 PLUGIN_*
.npc: &npc
- runner:
cpus: 4
docker:
image: docker.cnb.cool/bring/agi/openclaw:latest
env:
PLUGIN_API_URL: https://your-llm-endpoint/v1
PLUGIN_API_KEY: sk-xxxx
PLUGIN_MODEL: qwen-plus
stages:
- name: run openclaw
script: bash ./start.sh
$:
issue.comment@npc: *npc
pull_request.comment@npc: *npc
示例 2:在 stages.settings 中传入,平台会自动转成 PLUGIN_*
.npc: &npc
- runner:
cpus: 4
stages:
- name: run openclaw
image: docker.cnb.cool/bring/agi/openclaw:latest
settings:
api_url: https://your-llm-endpoint/v1
api_key: sk-xxxx
model: qwen-plus
$:
issue.comment@npc: *npc
pull_request.comment@npc: *npc
示例 3:在 .cnb/settings.yml 中自定义 NPC 身份
knowledgeBase:
defaultRole: OpenClaw
roles:
- name: OpenClaw
avatar:
src: assets/openclaw.png
prompt: |
你是自定义 NPC 助手,请根据仓库上下文高质量完成任务。
效果: