OpenClaw 部署实战:在 macOS、Linux、树莓派和云服务器上搭建你的私人 AI 助手

AI文章编辑部

从零开始部署 OpenClaw 开源 AI 助手的完整指南,覆盖 macOS 本地安装、Linux 服务器部署、树莓派低成本方案和云平台搭建,附 WhatsApp/Telegram 对接、技能扩展和生产环境调优经验。

我为什么放弃了所有 SaaS 助手,转向 OpenClaw

去年年底,我在用的几个 AI 助手差不多同时出了问题——某个要涨价,某个砍了 API 功能,还有一个直接把我的聊天记录拿去训练模型了。折腾了一圈之后我开始想:有没有一种方案,能像 ChatGPT 那样对话式交互,但数据完全在自己手里?找了一圈,撞见了 OpenClaw。说实话,第一眼看到官网上那个龙虾 logo 的时候以为是个玩具项目,结果一上手才发现完全不是那么回事。OpenClaw 是 Peter Steinberger 搞的一个开源项目,定位是「真正能干活的 AI 助手」。跟市面上那些只能聊天的产品不同,这东西直接跑在你自己的电脑上,能帮你清理邮箱、管日历、订机票、跑脚本、操作浏览器——关键是通过 WhatsApp、Telegram、Discord 这些你已经在用的聊天软件来交互,不用装什么新 App。社区里有人说它是「Siri 本应该成为的样子」,我用了两个月之后觉得这话说得还保守了。这篇文章就把我在各个平台上部署 OpenClaw 的过程完整记录下来,踩过的坑、绕过的弯路,全部摊开来说。

OpenClaw 到底是什么:架构和核心能力拆解

OpenClaw 系统架构示意
图:OpenClaw 运行在你自己的设备上,通过聊天应用与你交互,支持多种 LLM 后端

在讲怎么装之前,先花两分钟搞清楚 OpenClaw 的基本架构,否则后面遇到问题你都不知道该查哪里。OpenClaw 本质上是一个运行在你自己机器上的 AI Agent 框架。它由几个核心模块组成:消息网关负责对接各种聊天平台(WhatsApp、Telegram、Discord、Slack、Signal、iMessage 都支持);LLM 调度层负责把你的指令发给大语言模型处理(支持 Anthropic Claude、OpenAI GPT 系列,也可以接本地模型比如 Ollama);记忆系统会持久化存储你和它的所有交互上下文,让它真正「记住你」;技能系统是一套插件机制,社区已经有 50 多个现成的 Skill 可以下载,从控制智能家居到操作 GitHub 都有。最硬核的部分是它的系统级能力——OpenClaw 可以操作浏览器、读写本地文件、执行 Shell 命令。你可以理解为:你给了一个聪明人一台电脑和所有权限,然后通过微信告诉他该干什么。项目用 Node.js/TypeScript 写的,代码开源在 GitHub(github.com/openclaw/openclaw),安装方式支持 npm 全局安装、一键脚本和源码编译三种,适合不同技术水平的用户。

部署前的准备:API Key 和基本概念

不管你选哪个平台部署,有几件事是通用的,先说清楚。第一,你需要一个 LLM 的 API Key。OpenClaw 本身不带大语言模型,它需要调用外部的 LLM 来理解和生成内容。最推荐的方案是用 Anthropic 的 Claude API——OpenClaw 对 Claude 的支持最成熟,工具调用的成功率也最高。去 console.anthropic.com 注册一个账号,创建一个 API Key 就行,新用户有免费额度可以先试着玩。如果你不想花钱,也可以接 OpenAI 的 API 或者跑本地模型(后面会讲)。第二,你需要至少一个聊天平台的 Bot 账号。比如用 Telegram 的话,找 @BotFather 创建一个 Bot 拿到 Token 就行。WhatsApp 的对接要稍微复杂一点,需要扫码登录。具体选哪个平台看个人习惯,我自己用的是 Telegram,因为 Bot API 最方便。第三,硬件要求很低——OpenClaw 本身是 Node.js 应用,内存占用大概 200-400MB,任何 2018 年以后的设备都能跑。唯一需要注意的是,如果你要用浏览器自动化功能,机器上需要有 Chromium 或 Chrome。好了,准备工作搞定,下面逐个平台讲部署流程。

macOS 部署:个人开发者的首选方案

macOS 终端安装 OpenClaw
图:在 macOS 上用一行命令安装 OpenClaw,终端输出显示安装成功

macOS 是 OpenClaw 社区里用得最多的平台,也是体验最好的。很多人直接拿一台 Mac Mini 当 7×24 小时的 AI 助手专用机——安静、省电、性能足够。安装过程非常简单,打开终端,执行一行命令就完事了:curl -fsSL https://openclaw.ai/install.sh | bash。这个脚本会自动检测你的系统环境,如果没有 Node.js 会帮你装上 Homebrew 然后通过 Homebrew 安装 Node。整个过程大约两三分钟。如果你是开发者,更推荐用 npm 方式安装:npm i -g openclaw,然后执行 openclaw onboard 开始初始化配置。onboard 流程是一个交互式向导,会问你几个问题:用哪个 LLM(选 Claude 或 GPT)、填 API Key、选聊天平台、设置 Bot Token。填完之后 OpenClaw 就会启动,并且在你选的聊天应用里发一条欢迎消息——看到那个龙虾 emoji 出现在 Telegram 里的时候,说实话还挺有仪式感的。如果你是那种喜欢看源码的人(我也是),可以用 Git 方式安装:git clone 下来,pnpm install,pnpm run build,然后 pnpm run openclaw onboard。这样做的好处是你可以随时改代码、加功能、提 PR。Apple Silicon 和 Intel Mac 都完全兼容,M 系列芯片跑起来甚至更快一些。安装完之后建议配一下 launchd,让 OpenClaw 开机自动启动,这样即使机器重启了你的助手也不会掉线。

macOS 进阶:Companion App 和 iMessage 对接

macOS 上有一个独家福利——OpenClaw 提供了一个原生的 Companion App(目前还是 Beta),是一个菜单栏应用,可以快速查看助手状态、最近的消息和日志输出,不用一直开着终端。下载地址在 openclaw.ai 首页,要求 macOS 15 以上,Intel 和 Apple Silicon 都支持。更酷的一个玩法是 iMessage 对接。因为 OpenClaw 跑在 Mac 上,它可以直接通过 macOS 内置的 Messages 框架收发 iMessage。配置也不复杂,在 onboard 的时候选择 iMessage 作为聊天渠道就行。这意味着你可以直接在 iPhone 的短信应用里跟你的 AI 助手对话,不用装任何额外的 App。对于非技术用户来说,这个体验真的很丝滑——看起来就像在跟一个真人朋友发消息,但这个朋友碰巧能帮你查航班、读邮件、写代码。有个小坑要注意:iMessage 对接需要你的 Mac 保持登录状态且没有休眠。如果你是专门拿一台 Mac Mini 跑的话,记得在系统设置里关掉自动休眠。

Linux 服务器部署:7×24 小时在线的正确姿势

Linux 服务器机房
图:在 Linux 服务器上部署 OpenClaw,配合 systemd 实现开机自启和自动重启

如果你没有闲置的 Mac 或者不想让个人电脑 24 小时开着,Linux 服务器是最佳替代方案。家里有台旧笔记本装个 Ubuntu 就行,或者干脆买一台最便宜的 VPS。我自己用的是一台 2 核 4G 内存的腾讯云轻量应用服务器,跑 Ubuntu 22.04,一年费用也就几百块,完全够用。安装流程和 macOS 几乎一样,SSH 登上去执行:curl -fsSL https://openclaw.ai/install.sh | bash。脚本会自动用系统包管理器装 Node.js。装完之后 openclaw onboard 走一遍向导就行。关键的一步是要把 OpenClaw 做成系统服务,否则你一关 SSH 会话它就停了。推荐用 systemd 来管理,创建一个 /etc/systemd/system/openclaw.service 文件,指定好 ExecStart 路径和工作目录,然后 systemctl enable openclaw 开机自启,systemctl start openclaw 立即启动。这样即使服务器重启、进程意外退出,systemd 都会自动帮你拉起来。还有一个注意事项:如果你需要浏览器自动化功能(比如让 OpenClaw 帮你自动填表、抓网页数据),需要在服务器上装一个 headless Chrome。Ubuntu 上执行 apt install chromium-browser 就行。OpenClaw 会自动检测系统中的 Chrome/Chromium 路径,不需要额外配置。

树莓派方案:低功耗 AI 助手的极客玩法

树莓派运行 OpenClaw
图:树莓派 4B/5 完全能跑 OpenClaw,功耗不到 10W,放在角落里默默干活

这是我最喜欢的部署方案,也是社区里热度很高的玩法。有个用户 @AlbertMoral 说他在树莓派上装了 OpenClaw 然后接了 Cloudflare Tunnel,几分钟就在手机上通过 WhatsApp 搭了个网站——听着像吹牛,但我自己复现过,确实可以。硬件方面,推荐树莓派 4B(4GB 版)或者最新的树莓派 5。老一代的 3B+ 理论上也行,但内存只有 1GB,跑起来比较吃力。系统装 Raspberry Pi OS(64 位版本),这是基于 Debian 的,所以安装流程和 Ubuntu 一模一样。一行命令安装 OpenClaw,onboard 配置,搞定。树莓派的优势是功耗极低——满载也就 7-8 瓦,一个月电费可以忽略不计。放在家里的路由器旁边,接上网线和电源,然后就可以通过 Telegram 随时随地跟你的 AI 助手对话了。我还给它接了一个 USB 摄像头,配合 OpenClaw 的技能系统写了个定时拍照的 Skill——社区里有人做了更狠的,让 OpenClaw 根据天气情况自动拍一张窗外的照片发到聊天里。树莓派上唯一需要注意的性能瓶颈是 Node.js 的初始启动速度比较慢(大约 15 秒),但启动之后的运行和响应速度跟 x86 服务器没有体感差异。另一个小坑是 ARM 架构下某些 npm 包可能没有预编译的 binary,安装时会自动从源码编译,第一次 npm install 可能要等比较久——耐心等就好。

Windows 部署:WSL2 是你的好朋友

虽然 OpenClaw 官方主要面向 macOS 和 Linux,但 Windows 用户也不用担心——通过 WSL2(Windows Subsystem for Linux)可以获得几乎一样的体验。首先确保你的 Windows 10/11 已经开启了 WSL2 功能,然后在 Microsoft Store 里安装一个 Ubuntu 发行版。打开 WSL 的 Ubuntu 终端后,后续步骤就和 Linux 完全一样了:curl 安装脚本、onboard 配置、systemd 管理。对于不想用 WSL 的用户,OpenClaw 也可以直接在 Windows 的 PowerShell 或者 CMD 里安装和运行,官网给出了对应的安装命令。不过根据社区反馈,原生 Windows 环境下偶尔会遇到一些路径和权限的兼容性问题,WSL2 方案明显更稳定。还有一种不需要折腾的方式:直接用 Docker Desktop for Windows 来跑——下面马上会讲。

云平台部署全攻略:AWS、阿里云、Vercel 和 Railway

云服务器部署架构
图:在云平台上部署 OpenClaw,搭配 Cloudflare Tunnel 实现安全的外网访问

如果你不想维护任何物理设备,直接扔到云上是最省心的方案。目前主流云平台都能跑 OpenClaw,这里按使用门槛从低到高排列。最简单的是用 Railway 或 Render 这类 PaaS 平台——创建一个新项目,选择 Node.js 环境,把 OpenClaw 的 GitHub 仓库地址填进去,设置好环境变量(API Key、Bot Token 等),点击 Deploy,三分钟搞定。费用方面 Railway 有免费额度,够个人用户日常使用了。中等难度的是用传统云服务器——阿里云 ECS、腾讯云 CVM、AWS EC2 或者 DigitalOcean Droplets 都行。选最低配的实例就够用了(1 核 1G 就能跑,2 核 2G 比较舒服),操作系统选 Ubuntu 22.04 或 24.04,然后 SSH 上去按 Linux 的流程装就行。推荐搭配 Cloudflare Tunnel 做内网穿透,这样不用开放服务器的公网端口,安全性好很多。还有一种比较前沿的玩法是用 Docker 部署——社区已经有人做了 OpenClaw 的 Docker 镜像,docker pull 下来配置好环境变量直接 docker run 就能跑。结合 Docker Compose 还可以一键部署 OpenClaw + Cloudflare Tunnel + 日志收集的完整栈。对于企业用户来说,Docker 方案最容易纳入现有的 CI/CD 和运维体系。值得一提的是,OpenClaw 的赞助商里有 Vercel 和 Convex,所以在这两个平台上的集成可能会越来越好——持续关注官方博客就行。

聊天平台对接详解:Telegram、WhatsApp 和 Discord

OpenClaw 装好之后,最关键的一步是把它和你日常用的聊天软件连上。这里展开讲三个最常用的平台。Telegram 对接最简单:找 @BotFather 发 /newbot,取个名字,拿到 Token,在 OpenClaw 的 onboard 流程或配置文件中填入就行。Telegram Bot 的好处是可以在群组里使用——你可以把 OpenClaw Bot 拉进一个群组,让它作为团队助手工作,所有人都可以 @ 它提需求。WhatsApp 对接需要多一步:OpenClaw 用的是 WhatsApp Web 的协议,第一次连接时需要你用手机扫一个二维码(和电脑上登 WhatsApp Web 一样)。扫完之后会话就保持了,不需要重复扫。WhatsApp 方案的优势是你可以用自己的手机号和 OpenClaw 对话,看起来就像在跟一个联系人发消息,对非技术用户最友好。Discord 对接也很流畅:到 Discord Developer Portal 创建一个 Application,生成 Bot Token,邀请到你的服务器,然后在 OpenClaw 配置中填入。有意思的是 Discord 的 Bot 天然支持多服务器,你可以让同一个 OpenClaw 实例在不同的 Discord 服务器里工作——社区里有人做了三个实例克隆(对,让 OpenClaw 自己搞定了克隆流程),分别挂在不同的服务器上,各自独立工作。除了这三个,Slack 和 Signal 也支持,配置方式类似,文档里都有详细说明。

技能系统和自动化:让 OpenClaw 真正干活

OpenClaw 技能扩展市场
图:ClawHub 上已有 50+ 社区贡献的技能插件,覆盖邮件、日历、智能家居等场景

部署只是第一步,真正让 OpenClaw 值回投入的是它的技能(Skills)系统。OpenClaw 把能力封装成一个个 Skill 插件,你可以从 ClawHub(类似于 App Store)下载现成的,也可以让 OpenClaw 自己写。对,你没看错——你可以在聊天里跟它说「我需要一个能查询航班价格的技能」,它会自己写代码、自己测试、自己安装。社区里有人因为找不到现成的航班查询 API,就让 OpenClaw 写了一个多平台比价的终端工具。目前社区热门的技能包括:Gmail 集成(自动清理收件箱、分类邮件、代写回复)、GitHub 集成(监控 Issue、自动审查 PR、合并代码)、日历管理(读取 Google Calendar 或 Apple Calendar 的日程、自动安排会议)、智能家居控制(飞利浦 Hue 灯光、各种物联网设备)、健康数据同步(WHOOP 手环数据读取和分析)。还有一些比较硬核的用法:有人让 OpenClaw 接入了 Sentry 的 Webhook,应用出了 Bug 它自动捕获错误、分析代码、开 PR 修复——全程不需要人工介入。另一个让我印象深刻的案例是一个用户的 OpenClaw 自己去跟保险公司打了一架——因为误解了用户的一句回复,它直接给保险公司发了一封质疑拒赔的邮件,结果保险公司居然重新开始调查了。这种「自主行动」的能力是传统聊天机器人根本做不到的。

本地模型接入:不花一分钱 API 费用的方案

虽然接 Claude 或 GPT 的 API 体验最好,但如果你对成本敏感或者对数据隐私有极致要求,OpenClaw 也支持接本地模型。最推荐的方案是用 Ollama——在本机或局域网内的另一台机器上跑 Ollama,然后把 OpenClaw 的 LLM 配置指向 Ollama 的本地地址就行。模型选择方面,社区反馈 MiniMax M2.5 在 OpenClaw 上的表现相当不错,工具调用的解析成功率很高。如果你的机器有不错的 GPU(比如 RTX 3090 或 M2 Pro 以上的 Mac),跑 70B 参数的模型也很流畅。纯 CPU 推理的话建议选 7B-13B 级别的模型,响应速度大概在 3-8 秒之间,对于日常的文本类任务完全够用。需要注意的是,本地模型在工具调用(Function Calling)方面的能力和 Claude 还有明显差距,一些复杂的多步骤任务可能会出错。我的建议是:日常简单任务用本地模型省钱,重要任务或者需要浏览器操作的时候切回 Claude API。OpenClaw 支持在运行时动态切换模型,你甚至可以在聊天里直接说「切换到 Claude」或者「用本地模型」。

安全加固和隐私保护:生产环境必做的几件事

把 AI 助手部署到生产环境,安全问题不能糊弄。OpenClaw 在设计上就考虑了这一层——数据默认存储在本地,不会上传到任何第三方服务器。但还有几个点需要你自己动手加固。第一,API Key 的管理。不要把 Key 硬编码在配置文件里然后推到 GitHub 上(别笑,真有人干过)。推荐用环境变量或者系统级的密钥管理工具来存储。第二,系统权限控制。OpenClaw 默认拥有完整的系统访问权限——这意味着它可以读写任何文件、执行任何命令。如果你不放心,可以在配置中启用沙箱模式,限制它能访问的目录和命令范围。第三,网络安全。如果你的 OpenClaw 部署在公网服务器上,务必不要直接暴露端口。用 Cloudflare Tunnel 或者 Tailscale 做内网穿透是更安全的选择。OpenClaw 最近还和 VirusTotal 达成了合作,对社区贡献的技能插件做安全扫描——这在开源项目中是比较少见的,说明团队确实在认真对待安全问题。第四,定期检查 OpenClaw 的日志输出,看看它都执行了哪些操作。早期版本有过用户反馈说助手在没有明确指令的情况下「主动」发送了邮件,虽然后续版本加了确认机制,但养成查日志的习惯总没有坏处。

踩坑实录:那些文档里没写的问题和解决办法

代码调试过程
图:部署过程中遇到的坑,大部分在 GitHub Issues 和 Discord 社区里都能找到答案

任何开源项目部署都免不了踩坑,OpenClaw 也不例外。这里列几个我遇到的和社区高频出现的问题。第一个坑:Node.js 版本不兼容。OpenClaw 要求 Node.js 18 或以上,如果你系统里装的是旧版本,安装脚本会尝试帮你升级,但有时候会和系统自带的 Node 冲突。最稳妥的办法是先用 nvm 管理 Node 版本,切到 18 或 20 再安装。第二个坑:WhatsApp 登录状态丢失。WhatsApp Web 的 session 大约每隔一两周会过期,需要重新扫码。如果你的 OpenClaw 跑在无头服务器上,重新扫码就很麻烦。社区的解决方案是用 Telegram 作为主要聊天渠道——Token 是永久有效的,不存在过期问题。第三个坑:内存泄漏。某些版本的 OpenClaw 在长时间运行(超过一周)后内存占用会逐渐增长。临时解决办法是配一个 cron job 每天凌晨重启一次服务;根治方案是升级到最新版本,团队一直在修这类问题。第四个坑:Cloudflare Tunnel 配置。如果你用 Tunnel 做内网穿透,注意 Tunnel 的 Ingress 规则要指向 OpenClaw 的 HTTP 端口而不是 WebSocket 端口,否则聊天消息能发不能收。第五个坑:中文环境下的编码问题。某些 Skill 在处理中文文件名时会出现乱码,在环境变量里加上 LANG=en_US.UTF-8 通常能解决。遇到搞不定的问题,去 OpenClaw 的 Discord 社区发帖是最快的途径——那里活跃度非常高,基本上几个小时内就会有人回复。

写在最后:个人 AI 助手的时代刚刚开始

部署完 OpenClaw 之后的第一周,我让它做了这些事情:每天早上 8 点给我发一份新闻摘要和天气预报;监控我的三个 GitHub 仓库的 Issue 和 PR,有新消息立刻通知我;帮我整理了过去半年的报销发票,按类别分好了文件夹;在我说「帮我约周三下午和张工开会」的时候,自动检查双方日历、找到空闲时间段、发送会议邀请。这些事情以前要么我自己花时间做,要么需要付费给各种 SaaS 工具,现在一个在树莓派上默默跑着的小程序全包了。有人说 OpenClaw 是「开源版 Siri」,这个类比不太对——Siri 做不到的事情 OpenClaw 随便做。更准确的说法可能是:它是一个能力范围只受限于你想象力的数字员工。Karpathy 评价它「Excellent」,MacStories 的 Federico Viticci 写了长文说它展示了个人 AI 助手的未来形态。我自己的感受没这么宏大叙事,就是觉得确实好用——每天省下来的零碎时间加起来至少一个小时。如果你动手能力还行,花一个周末下午把它跑起来,绝对不会后悔。项目迭代很快,GitHub 上几乎每天都有新 commit,社区也非常活跃和友好。这是 2026 年我最推荐折腾的开源项目,没有之一。