时间:2026-02-03 16:13
人气:
作者:admin
本文基于实际部署经验,详细介绍 OpenClaw 的安装、配置 GitHub Copilot / Qwen 模型、接入钉钉、解决常见问题,以及搭建本地模型的完整流程。

OpenClaw 是一个开源的 AI 助手框架,可以:
简单说,它让你拥有一个 7x24 小时在线的 AI 助手,可以通过任何聊天软件与它对话。
项目地址: https://github.com/openclaw/openclaw
官方文档: https://docs.openclaw.ai
Windows WSL / Ubuntu:
curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -
sudo apt install -y nodejs
macOS:
brew install node@22
验证安装:
node -v # 应显示 v22.x.x
npm -v
推荐方式(一键安装):
Linux / macOS:
curl -fsSL https://openclaw.ai/install.sh | bash
Windows PowerShell:
iwr -useb https://openclaw.ai/install.ps1 | iex
手动安装:
npm install -g openclaw@latest
openclaw onboard --install-daemon
安装完成后会自动运行引导程序,如果跳过了,可以手动执行:
openclaw onboard --install-daemon
引导程序会帮你:
openclaw status # 查看服务状态
openclaw doctor # 诊断问题
openclaw health # 健康检查
OpenClaw 支持多种模型提供商,这里介绍最常用的两种:
如果你有 GitHub Copilot 订阅(包括学生包),可以直接使用:
openclaw models auth login-github-copilot
执行后会显示一个链接和验证码:
设置默认模型:
openclaw models set github-copilot/claude-opus-4.5
# 或者使用 GPT-4o
openclaw models set github-copilot/gpt-4o
可用模型列表:
github-copilot/claude-opus-4.5 — Claude Opus(最强)github-copilot/claude-sonnet-4 — Claude Sonnet(均衡)github-copilot/gpt-4o — GPT-4ogithub-copilot/gpt-4.1 — GPT-4 TurboQwen 提供免费的 OAuth 登录,每天 2000 次请求:
1. 启用插件:
openclaw plugins enable qwen-portal-auth
openclaw gateway restart
2. 登录认证:
openclaw models auth login --provider qwen-portal --set-default
按提示在浏览器中完成登录。
3. 设置默认模型:
openclaw models set qwen-portal/coder-model
可用模型:
qwen-portal/coder-model — Qwen Coder(代码增强)qwen-portal/vision-model — Qwen Vision(支持图片)OpenClaw 还支持:
详见官方文档:https://docs.openclaw.ai/providers
在应用的「权限管理」中,申请以下权限:
qyapi_chat_manage — 群会话管理qyapi_robot_sendmsg — 机器人发送消息contact_user_mobile_read — 读取用户手机号(可选)在「开发配置」→「事件与回调」中:
https://你的域名/webhook/dingtalk⚠️ 钉钉要求 HTTPS,本地开发可以用 ngrok 或 Cloudflare Tunnel
openclaw plugins install clawdbot-dingtalk
openclaw plugins enable clawdbot-dingtalk
编辑配置文件 ~/.openclaw/openclaw.json:
{
"channels": {
"dingtalk": {
"enabled": true,
"clientId": "你的Client ID",
"clientSecret": "你的Client Secret",
"dmPolicy": "pairing"
}
},
"plugins": {
"entries": {
"clawdbot-dingtalk": {
"enabled": true
}
}
}
}
或者使用命令行配置:
openclaw config set channels.dingtalk.enabled true
openclaw config set channels.dingtalk.clientId "你的Client ID"
openclaw config set channels.dingtalk.clientSecret "你的Client Secret"
openclaw gateway restart
在钉钉中 @机器人 或私聊机器人,发送消息测试。
原因: 钉钉 API 需要 userId 或 conversationId,而不是用户名。
解决方案:
代码层面的修复:
// 错误:使用用户名
message.send({ to: "maple", message: "hello" })
// 正确:使用 userId 或 conversationId
message.send({ to: "user123456", message: "hello" })
原因: 钉钉的签名验证机制要求时间戳在有效范围内。
解决方案:
sudo ntpdate pool.ntp.org原因:
解决方案:
# 检查服务状态
openclaw status
openclaw health
# 查看日志
openclaw logs -f
# 重启服务
openclaw gateway restart
原因: 未将机器人添加到群聊。
解决方案:
原因: 钉钉 API 调用频率限制。
解决方案:
查看详细日志:
openclaw logs -f --level debug
测试 Webhook 连通性:
curl -X POST https://你的域名/webhook/dingtalk \
-H "Content-Type: application/json" \
-d '{"test": true}'
检查插件状态:
openclaw plugins list
# 查看状态
openclaw status
# 打开 Web 控制台
openclaw dashboard
# 查看日志
openclaw logs -f
# 重启服务
openclaw gateway restart
# 切换模型
openclaw models set github-copilot/gpt-4o
# 查看当前模型
openclaw models current
在聊天中可以使用:
/status — 查看会话状态/model <模型名> — 切换模型/clear — 清空对话历史/help — 查看帮助在聊天中直接说:
“20分钟后提醒我开会”
“每天早上9点提醒我查看邮件”
OpenClaw 会自动创建 cron 任务。
在聊天中可以让 AI 帮你:
# 创建模型别名
openclaw config set agents.defaults.models.qwen-portal/coder-model.alias "qwen"
# 聊天中切换
/model qwen
/model github-copilot/claude-opus-4.5
如果你想在本地运行模型(无需 API),可以使用 llama.cpp。
sudo apt update
sudo apt install -y cmake build-essential
mkdir -p ~/llama.cpp
cd ~/llama.cpp
git clone --depth 1 https://github.com/ggerganov/llama.cpp.git src
cd src && mkdir build && cd build
cmake .. -DCMAKE_BUILD_TYPE=Release
make -j$(nproc) llama-cli llama-server
mkdir -p ~/llama.cpp/models
# Qwen2.5-3B(适合 4GB 显存)
curl -L -o ~/llama.cpp/models/qwen2.5-3b.gguf \
"https://hf-mirror.com/Qwen/Qwen2.5-3B-Instruct-GGUF/resolve/main/qwen2.5-3b-instruct-q4_k_m.gguf"
# Qwen2.5-7B(适合 8GB 显存)
curl -L -o ~/llama.cpp/models/qwen2.5-7b.gguf \
"https://hf-mirror.com/Qwen/Qwen2.5-7B-Instruct-GGUF/resolve/main/qwen2.5-7b-instruct-q4_k_m.gguf"
cd ~/llama.cpp/src/build/bin
./llama-server \
-m ~/llama.cpp/models/qwen2.5-3b.gguf \
--host 0.0.0.0 \
--port 8080 \
-c 4096
服务启动后:
编辑 ~/.openclaw/openclaw.json,添加自定义 provider:
{
"models": {
"providers": {
"local-llama": {
"baseUrl": "http://localhost:8080/v1",
"apiKey": "not-needed",
"api": "openai-completions",
"models": [
{
"id": "qwen2.5-3b",
"name": "Qwen 2.5 3B Local",
"contextWindow": 4096,
"maxTokens": 2048
}
]
}
}
}
}
切换到本地模型:
openclaw models set local-llama/qwen2.5-3b
| 对比项 | 本地模型 | 云端模型 |
|---|---|---|
| 成本 | 一次性硬件投入 | 按量付费 |
| 隐私 | 数据不出本地 | 需信任提供商 |
| 速度 | 取决于硬件 | 通常更快 |
| 能力 | 受限于模型大小 | 可用最强模型 |
| 可用性 | 需要本地运行 | 7x24 小时 |
建议:
curl -fsSL https://openclaw.ai/install.sh | bashopenclaw models auth login-github-copilotclawdbot-dingtalk 插件 + 配置 credentials| 资源 | 地址 |
|---|---|
| OpenClaw GitHub | https://github.com/openclaw/openclaw |
| 官方文档 | https://docs.openclaw.ai |
| 钉钉开放平台 | https://open.dingtalk.com |
| llama.cpp | https://github.com/ggerganov/llama.cpp |
| 模型下载(镜像) | https://hf-mirror.com |
| 社区 Discord | https://discord.com/invite/clawd |
~/.openclaw/workspace/SOUL.md/docs/plugins/manifest.md/docs/multi-agent-sandbox-tools.md文章整理于 2026-02-03
基于 OpenClaw 2026.2.1 版本
如有问题欢迎交流!