你已经每天在用的 App,
都能成为你的 AI 助手入口
WhatsApp、微信、Slack、Telegram——你每天打开几十次的这些 App,OpenClaw 让它们全部变成你私人 AI 助手的对话窗口。同一个助手,在所有平台上为你服务,记住你的偏好,理解你的上下文。
你在 WhatsApp 上问一个问题——发生了什么
25+ 支持的平台
OpenClaw 把这些平台统统转化成你的 AI 对话入口:
三分钟启动:onboard 命令
# 安装 OpenClaw
npm install -g openclaw
# 或用 pnpm / bun
# 运行引导向导(推荐)
openclaw onboard
# 这个命令会:
# 1. 引导你配置 Gateway
# 2. 设置你的工作区
# 3. 连接第一个通讯渠道
# 4. 验证连接是否正常
模块测验
Gateway:
所有消息的中央枢纽
想象一座大型机场的控制塔。无论是从哪个跑道起降,所有飞机都要和同一个控制塔通信。OpenClaw 的 Gateway 就是这座控制塔——所有平台的消息,都在这里汇聚、处理、分发。
Gateway 的核心职责
Entry.ts:Gateway 的启动序列
function createGatewayEntryStartupTrace(argv: string[]) {
const enabled =
isTruthyEnvValue(
process.env.OPENCLAW_GATEWAY_STARTUP_TRACE
) && argv.slice(2).includes("gateway");
const started = performance.now();
return {
mark(name: string) {
// 记录每个启动阶段的耗时
const now = performance.now();
emit(name, now - last, now - started);
}
};
}
Gateway 与渠道的对话
Canvas:AI 的可视化画布
除了文字聊天,OpenClaw 还支持Canvas——一个你可以控制的实时展示面板。当 AI 的回答需要图表、代码、格式化表格时,它可以把内容渲染到 Canvas 上。
扩展系统:
给助手装上超能力
一个基础的 AI 助手能聊天。但当它会查天气、能生成图片、可以控制智能家居、能读取你的日历——它就从聊天机器人变成了真正的私人助理。这就是 OpenClaw 扩展系统的价值。
已有的官方扩展
扩展 SDK:如何构建自己的超能力
// 一个扩展的基本结构
export interface PluginEntry {
// 扩展的唯一标识符
id: string;
// 扩展提供的能力描述
capabilities: string[];
// 初始化:连接外部服务
initialize(config: PluginConfig): Promise;
// 处理用户请求
handleRequest(
request: PluginRequest
): Promise;
}
一个扩展如何被调用的全过程
模块测验
渠道适配器:
每个平台都有自己的语言
WhatsApp 的消息格式和 Slack 的完全不同。Discord 的 webhook 和 Telegram 的 Bot API 工作原理也不一样。渠道适配器是翻译官——把每个平台独特的"方言"翻译成 OpenClaw 的"普通话"。
Webhook vs 轮询:两种接收消息的方式
OpenClaw 支持两种方式接收来自平台的消息:
跨平台消息同步的核心结构
// 所有渠道的消息被标准化为:
interface UnifiedMessage {
id: string; // 唯一消息 ID
platform: string; // "whatsapp" | "slack" | ...
userId: string; // 发送者身份
workspaceId: string; // 所属工作区
text?: string; // 文字内容
attachments?: { // 附件(图片、文件等)
type: string;
url: string;
}[];
timestamp: Date; // 发送时间
}
iOS/Android 原生应用:语音助手的硬件层
OpenClaw 在 iOS 和 Android 上有原生应用(Swift / Kotlin 开发),这让它能使用手机的麦克风和扬声器,实现真正的语音对话:
模块测验
本地优先:
你的数据,只属于你
大多数 AI 服务把你的对话发送到他们的云端服务器处理,存储在他们的数据库里。OpenClaw 的设计哲学正好相反:本地优先(Local-first)——计算在你的设备上,数据留在你手里。
本地运行 vs 云端服务的真正区别
本地模型接入:LM Studio 扩展
{
"extension": "lmstudio",
"config": {
"baseUrl": "http://localhost:1234",
"model": "llama-3.2-3b",
"contextLength": 8192,
"temperature": 0.7
},
"routing": {
"defaultForPlatforms": ["telegram"],
"fallback": "openai"
}
}
长期记忆:向量数据库的魔法
memory-lancedb 扩展用向量数据库 LanceDB 实现助手的长期记忆: