博客

  • 用 OpenClaw 安装 Hermes:一台机器同时跑两套 AI Agent,还能用 ChatGPT Plus 授权登录,基本不折腾 Tokens

    最近我做了一件挺上头的事。

    我没有卸载 OpenClaw,也没有推倒重来,而是直接在原来的机器上,再装了一套 Hermes

    最后我得到的是这样一个状态:

    • OpenClaw 继续正常运行
    • Hermes 也独立跑起来了
    • 两套 Agent 同时在线
    • Hermes 成功接入微信
    • Hermes 还能用 ChatGPT Plus 授权登录
    • 不用自己折腾一堆 API Key 和 token 消耗焦虑

    说实话,这个结果比我预期的还顺。

    如果你也在想:

    “我已经在用 OpenClaw 了,要不要试试 Hermes?”
    或者
    “能不能不推翻现有环境,直接把 Hermes 装上?”

    这篇文章就是给你的。


    一句话结论先说

    可以。

    而且最舒服的方式不是替换,而是:

    保留 OpenClaw,独立安装 Hermes,让两套系统共存。

    这套做法的核心价值只有四个字:

    稳,且实用。


    为什么我没有放弃 OpenClaw,而是选择“再装一套 Hermes”?

    因为这两个东西,虽然看起来都像 Agent 框架,但实际气质不一样。

    OpenClaw 更像什么?

    OpenClaw 更像一个很灵活的 Agent 容器:

    • 微信接入方便
    • 控制台直观
    • 技能体系成熟
    • 配置逻辑清楚
    • 很适合“先搭起来,先跑起来”

    Hermes 更像什么?

    Hermes 更像一个完整的 Agent 操作系统:

    • 自带 gateway
    • 自带 memory
    • 自带 cron
    • 自带 skills
    • 支持多种 provider
    • 支持 OAuth 登录
    • 更强调长期运行、完整生态和系统化能力

    所以我最后的选择不是:

    二选一。

    而是:

    两套都要。

    说白了,既然 OpenClaw 已经很好用,为什么一定要删?
    Hermes 值得试,为什么一定要替换?

    最合理的方式,就是让它们并行存在


    最关键的一步,不是安装,而是“别把现有环境搞坏”

    很多人装第二套 Agent,最大的坑不是不会装,而是装完以后:

    • Python 环境乱了
    • 原来的服务挂了
    • OpenClaw 被依赖污染了
    • 系统 pip 被搞坏了

    所以我一开始就定了一个原则:

    Hermes 必须独立安装,不能污染 OpenClaw

    最后我的方案是:

    • OpenClaw 保留在 ~/.openclaw
    • Hermes 单独装在 ~/.hermes
    • Hermes 用自己的虚拟环境 .venv
    • 两套系统互不干扰

    安装思路大致是这样:

    bashCopy

    curl -LsSf https://astral.sh/uv/install.sh | sh
    git clone https://github.com/NousResearch/hermes-agent ~/.hermes/hermes-agent
    cd ~/.hermes/hermes-agent
    ~/.local/bin/uv venv --python 3.12
    source .venv/bin/activate
    ~/.local/bin/uv pip install -e '.[all]'

    这个做法的优点非常明显:

    1)不破坏 OpenClaw

    你原来怎么用 OpenClaw,继续怎么用。

    2)Hermes 完全独立

    想试就试,想删就删,不会牵连原系统。

    3)后面排错更简单

    一旦出问题,你能明确知道是 OpenClaw 的问题,还是 Hermes 的问题。

    这一点,真的比“装上去”本身更重要。


    装好 Hermes 之后,第一感觉就是:它是真的很完整

    安装完成后,先跑一下:

    bashCopy

    cd ~/.hermes/hermes-agent
    source .venv/bin/activate
    hermes --help

    这时候你会看到 Hermes 不是那种“只有一个 chat 命令的玩具项目”。

    它本身就已经带了一整套能力:

    • hermes
    • hermes model
    • hermes auth
    • hermes gateway
    • hermes setup
    • hermes doctor
    • hermes cron
    • hermes skills
    • hermes sessions

    也就是说,它不是只想做一个“模型壳子”,而是真的在往Agent OS这个方向做。


    更让我惊喜的是:Hermes 能识别 OpenClaw,并支持迁移

    我执行:

    bashCopy

    hermes setup

    之后,Hermes 直接检测到了我机器上的 OpenClaw,并提示是否预览迁移内容。

    这一步我挺喜欢的。

    因为它不是那种“一键迁移,生死看命”的粗暴方式,而是会先告诉你:

    它准备导入什么

    比如:

    • SOUL.md
    • USER.md
    • model config
    • 已有 skills
    • 一部分 agent 配置

    它不会导入什么

    比如:

    • 某些敏感运行态数据
    • 不兼容的原始配置
    • 一些不适合直接复制的产品专属内容

    这其实很重要。

    因为 OpenClaw 和 Hermes 虽然很像,但不是完全同一个系统
    有些配置项名字像,含义可能不完全一样。

    所以我对这一步的建议是:

    可以迁移,但迁完一定要自己再检查一遍

    不要以为“迁移成功”就等于“完全没问题”。


    重点来了:Hermes 居然支持 OAuth,能走 ChatGPT Plus 授权登录

    这一段,应该是很多人最关心的。

    我原本以为 Hermes 只能走这几种常规路线:

    • OpenAI API Key
    • OpenRouter
    • 其他推理平台 API

    但实际看命令帮助之后,我发现它支持:

    bashCopy

    hermes auth add openai-codex --type oauth

    也就是说:

    Hermes 支持 OAuth 登录

    这件事的意义非常大。

    因为这意味着你不一定非要走 OpenAI API Key 方案,而是可以尝试:

    通过 ChatGPT Plus 会员授权登录。

    我实际走通的思路大概是这样:

    bashCopy

    hermes auth add openai-codex --type oauth --no-browser

    为什么加 --no-browser

    因为很多人装 Hermes 的机器都是云服务器,本机根本打不开浏览器。
    加这个参数之后,它会把授权链接打印出来,你在本地浏览器里完成登录就行。

    完成授权之后,再执行:

    bashCopy

    hermes model

    这时你会看到类似这样的模型列表:

    • gpt-5.4
    • gpt-5.4-mini
    • gpt-5.3-codex
    • gpt-5.2
    • gpt-5.3-codex-spark

    我最后选择的是:

    gpt-5.4 (via OpenAI Codex)

    配置成功后,那种感觉很直接:

    Hermes 终于不再只是“装好了”,而是真的能用了。

    而且这一步最爽的地方在于:

    你不用自己再纠结一堆 token 消耗逻辑

    这里说的“免 tokens”,不是说底层技术意义上完全不存在 tokens,而是说:

    你不再需要走传统 OpenAI API key 那套按量调用、单独计费、单独管理额度的繁琐路径。

    对于大量个人用户来说,这种使用方式会更接近“真正能长期用”的状态。


    接下来我本来以为微信会很麻烦,结果它真的能接上

    一开始我对 Hermes 的微信支持其实没抱太高期待。

    因为很多这类项目写着支持很多平台,但真正能顺手用起来的,往往只有 Telegram 和 Discord。

    结果这次实际跑下来,Hermes 的 Weixin 配置居然是能通的。

    配置成功后,会看到类似结果:

    • 微信连接成功
    • 生成 account_id
    • 生成 user_id
    • home channel 设置完成
    • DM pairing 启用
    • 群聊默认关闭

    这说明什么?

    说明 Hermes 不是“理论支持微信”

    而是:

    真的能把微信接起来

    这一点,我承认有点超预期。


    但这里有一个特别真实的坑:微信接上了,不代表你立刻能聊

    当我启动:

    bashCopy

    hermes gateway

    之后,看到的是类似这样的提示:

    • Unauthorized user
    • No user allowlists configured

    这时候第一反应很容易是:

    “是不是微信没接成功?”

    其实不是。

    真正的情况是:

    微信已经接上了,但当前微信用户还没有通过 Hermes 的授权机制

    也就是说,它不是连不上,而是把你拦下来了。

    Hermes 这里默认更偏安全策略,尤其在你启用了 DM pairing 的情况下。

    解决办法也不是直接批准微信 user id,而是:

    通过 pairing code 批准

    命令类似这样:

    bashCopy

    hermes pairing approve weixin N2RQV979

    注意这里的重点是:

    • weixin 是平台
    • N2RQV979 是配对码
    • 不是直接填微信 user id

    这一点如果没搞清楚,会反复卡住。

    但一旦你通过了配对批准,事情就顺了:

    微信聊天就真的可以用了


    到这里,最有价值的地方出现了:OpenClaw 和 Hermes 可以同时跑

    这也是我整件事里最满意的部分。

    最后我的机器状态,大概可以理解成这样:

    OpenClaw 继续做它擅长的事

    • 原有控制台
    • 原有插件
    • 原有 skill
    • 原有微信体系

    Hermes 独立承担另一套 Agent 能力

    • 独立聊天
    • 独立模型配置
    • 独立 gateway
    • 独立 memory
    • 独立 skill 体系

    换句话说:

    我没有“迁移”,我是在一台机器上养了两套 Agent

    这比“彻底切换”要舒服太多了。

    因为现实世界里,很多系统不是说换就换的。
    你已经有 OpenClaw 在跑,已经有微信在接,已经有配置在用,根本不可能因为一个新项目火了就直接全部切过去。

    所以“共存”比“替换”实用得多。

    这件事对已经在跑 OpenClaw 的人,意义非常大:

    你不需要推倒重来。


    中间还踩了一个典型坑:Ubuntu 的 PEP 668

    这个坑我必须单独说一下,因为很多人迟早会碰到。

    如果你在 Ubuntu / Debian 上手一快,直接敲:

    bashCopy

    pip install aiohttp cryptography

    很容易就会报这个:

    bashCopy

    externally-managed-environment

    这不是 Hermes 的问题,也不是你的机器坏了。

    这是因为系统 Python 被 PEP 668 保护起来了,不允许你随便往系统环境里灌包。

    很多人这时候第一反应是:

    bashCopy

    pip install --break-system-packages

    说实话,我不建议这么干。

    因为你现在图省事,后面十有八九要还债。

    正确姿势是:

    要么用 Hermes 自己的虚拟环境

    bashCopy

    .venv/bin/python -m pip install ...

    要么继续用 uv

    bashCopy

    ~/.local/bin/uv pip install --python .venv/bin/python ...

    这类错误的本质不是“命令不会写”,而是:

    你要学会尊重隔离环境。

    这也是为什么我一开始强调:

    Hermes 一定要独立安装。


    最后,这套方案到底值不值得?

    如果你只问我一句:

    “已经在用 OpenClaw 的前提下,还值不值得再装 Hermes?”

    我的答案很明确:

    值得。

    尤其适合下面这些人:

    • 已经把 OpenClaw 跑起来了
    • 不想推翻现有环境
    • 想试 Hermes 的完整 Agent 体验
    • 想把微信、模型、memory、cron 这些能力整合得更系统
    • 想尝试 ChatGPT Plus OAuth 授权登录
    • 不想天天围着 API key 和 token 配额转

    这件事真正让我觉得值的,不是“能装上”,而是:

    装上以后,真能长期用。

    这不是那种装完截图发朋友圈,然后第二天再也不碰的项目。

    而是你真的能把它接进自己的工作流里。


    如果你也想复现,最短命令清单在这里

    1. 安装 Hermes

    bashCopy

    curl -LsSf https://astral.sh/uv/install.sh | sh
    git clone https://github.com/NousResearch/hermes-agent ~/.hermes/hermes-agent
    cd ~/.hermes/hermes-agent
    ~/.local/bin/uv venv --python 3.12
    source .venv/bin/activate
    ~/.local/bin/uv pip install -e '.[all]'

    2. 启动配置

    bashCopy

    hermes setup

    3. 用 ChatGPT Plus 授权登录

    bashCopy

    hermes auth add openai-codex --type oauth --no-browser
    hermes model

    4. 进入聊天

    bashCopy

    hermes

    5. 启动微信网关

    bashCopy

    hermes gateway

    6. 批准微信配对码

    bashCopy

    hermes pairing approve weixin <PAIRING_CODE>

    结尾只想说一句

    如果说 OpenClaw 让我第一次觉得:

    “AI Agent 终于可以进入真实聊天场景了。”

    那 Hermes 给我的感觉就是:

    “AI Agent 开始不只是工具,而是一整套系统。”

    而最妙的是,这两者根本不冲突。

    你完全可以:

    • 保留 OpenClaw
    • 再装一套 Hermes
    • 一台机器跑两套 Agent
    • 微信接起来
    • 模型走 ChatGPT Plus OAuth 授权
    • 把新能力一点点接进自己的真实工作流

    这不是纸上谈兵。

    这条路,我已经实际走通了。


    如果你也在折腾 OpenClaw、Hermes、微信接入或者 ChatGPT

  • 我是怎么在腾讯云服务器上配置 AI 助手的:用 GPT 授权登录,尽量避开 API Token 计费

    这两天把自己的 AI 助手成功跑起来了,整个过程比预想中顺畅太多。核心思路特别简单,一句话就能说清:把 AI 服务部署在腾讯云服务器上,通过 GPT 授权登录使用模型,而非直接走 API Token 按调用量计费的路线。

    这么做的优势很直观,完全贴合个人自用场景:服务 24 小时在线,不用依赖本地电脑;可通过微信等聊天入口随时调用,比开网页更方便;无需从零编写大量接口逻辑,降低部署门槛;避开 API Token 按条扣费的模式,减少使用时的成本焦虑。

    今天就把完整配置过程整理出来,尽量只保留真正有用的部分,给想自己搭建个人 AI 助手的朋友做个参考。

    一、为什么选腾讯云服务器?放弃本地部署的 3 个核心原因

    在折腾腾讯云之前,我先试了本地部署加免费 Token,结果刚用几小时就消耗非常快;后来又尝试在本地跑各种大模型,很快就发现了一些绕不开的问题,最终还是果断转向云端。

    先说说我的本地电脑配置,供参考,也算给大家避坑:Intel i7-14700F,华硕 TUF GAMING B760-PLUS WIFI D5,金士顿 Fury Beast 32GB×2 DDR5,系统盘致态 TiPlus7100 1TB,数据盘铠侠 RC20 2TB,显卡 RTX 4070 12G。

    即便配置不算低,本地部署依然有 3 个硬伤:

    1. 速度慢,不稳定

    大模型回复卡顿,一字一顿;电脑关机、休眠、断网,服务就直接中断,没法做到随时调用。

    2. 使用场景受限

    想在手机、微信里随时调用几乎做不到。尤其碰到海外模型时,网络波动会把体验拉低得非常明显。

    3. 不适合长期运行

    自动回复、消息转发、定时任务这些实用能力,本质上都需要一个稳定的公网环境常驻运行,本地电脑并不适合长期扛这个角色。

    最终选择腾讯云服务器,理由很现实,也很适合个人部署:

    • 国内线路熟悉,操作和维护更顺手。
    • 开箱即用,部署门槛低,不用自己从零折腾环境。
    • 权限自主,后续做端口、反向代理、守护进程都更方便。

    二、核心诉求不是“能用”,而是“省心”

    很多人一提到部署 AI 助手,第一反应就是申请 API Key,然后按调用量计费。这当然是标准方式,但对个人自用来说,很容易陷入另一种焦虑:每次调用都在算自己花了多少 Token,上下文稍微长一点就开始心疼,场景还没跑顺,先把账单压力跑出来了。

    所以我这次没有优先走常规路线,而是选择 GPT 授权登录,让系统通过已授权账号身份来调用模型,而不是自己手动维护 API Token 计费链路。

    简单理解就是,把“开发者调用接口”的模式,换成“已授权账号直接使用模型能力”的模式,相当于把自己的 AI 工作台延伸到了云端服务器上。对个人用户来说,这种体验上的差异非常大。

    三、完整配置步骤

    整个过程最关键的是模型授权配置,其余步骤都不算难。先提前准备好两样东西:腾讯云服务器,以及 ChatGPT Plus 或可用的 OpenAI 订阅账号。

    步骤 1:准备腾讯云服务器

    1. 优先选择带有 OpenClaw 镜像的服务器,能省掉不少基础环境配置。
    2. 地区优先选弗吉尼亚,更适合海外模型授权和调用。
    3. 服务器开机即用,减少自己手装依赖的时间成本。

    步骤 2:模型配置,重点看 GPT 授权流程

    如果你是第一次做,建议先拿 Moonshot AI 这类门槛更低的模型做测试,把整体流程跑顺之后,再配置 GPT 授权,这样更稳。

    真正关键的步骤是下面这条命令:

    bashCopy

    openclaw onboard --auth-choice openai-codex

    执行后,终端会直接带你进入 Codex OAuth 授权流程,接下来按下面走:

    1. 复制终端生成的 OpenAI 授权链接,在浏览器中打开。
    2. 使用自己的 ChatGPT Plus 或 OpenAI 账号登录,点击允许授权。
    3. 授权成功后,浏览器会跳转到一个带有 code= 参数的本地地址。
    4. 把 code= 后面的字符复制回服务器终端并提交。
    5. 系统验证通过后,GPT 授权登录就完成了。

    这套方式最大的好处是,不用自己手动管理 API Key,也不会把每一次调用都变成“我又烧了多少 Token”的心智负担。

    四、不是“零成本”,但能明显降低焦虑

    这里要说得客观一点,这种方式不是零成本。你还是会有服务器成本、少量运维成本,以及订阅账号本身的成本。但它跟传统 API 方案最大的区别在于,你不会进入“每问一句都像在计价器上跳数字”的状态。

    这种使用心态的变化,比很多人想象中更重要。因为一旦你开始害怕上下文太长、推理太多、任务太复杂,AI 助手就很难真正融入你的工作流。

    五、这套方案最适合哪几类人

    • 想要一个 24 小时在线的个人 AI 助手。
    • 想把 AI 接入微信或其他聊天入口。
    • 对 API 成本敏感,不想一开始就背上调用焦虑。
    • 想先把能力跑通,再考虑后续商业化和工程化升级。

    六、边界也要提前说清楚

    这套方式很适合个人自用、小范围使用、重体验和低心智负担的场景。但如果你要做的是大规模并发、商业产品对外服务、严格 SLA、账单归因、多模型精细化路由与监控,那最后大概率还是要回到标准 API 架构。

    所以我的建议一直是,先用最省心的方式把系统跑通,再根据真实需求逐步升级。先能用、用顺手,比一开始就追求最标准的复杂方案更重要。

    七、最大的感受,是让 AI 真正融入日常

    这次配置完成之后,我最大的收获不是“我学会了部署”,而是更确定了一件事:决定 AI 体验的,很多时候不是模型本身,而是你怎么把它接进自己的日常工作流。

    把服务放在腾讯云,是为了稳定在线;用 GPT 授权登录,是为了降低门槛和计费焦虑;接入聊天入口,是为了让调用变得像发消息一样自然。

    当这些环节真的串起来之后,AI 就不再只是一个偶尔打开的网站,而开始像一个随时能响应、能帮你处理事情的助手。这才是我最满意的地方。

    最后,给新手的一句建议

    如果你也准备自己搭一个 AI 助手,别一开始就追求一步到位。先让它活起来,先稳定,先能用,先让自己真的愿意天天用。等用顺了,再去谈更复杂的自动化、更多模型接入、更多高级能力。

    对个人用户来说,能长期稳定地用上,比理论上最完美的方案更有价值。如果你在配置过程中遇到终端报错、授权失败之类的问题,也欢迎交流,后面我也会把踩过的坑慢慢整理出来。

  • 世界,您好!

    欢迎使用 WordPress。这是您的第一篇文章。编辑或删除它,然后开始写作吧!