Lazy loaded image
🏇Hermes Agent 教学 12 | 常见坑与调试
字数 1527阅读时长 4 分钟
2026-4-23
本文是 Hermes Agent 教学系列 第 12 篇,也是本系列的收官。把路上会碰的坊一起点出来。

怎么读这一篇

用不到全读。建议收藏,等你遇到问题时回查。分五块:
  1. 安装/环境坊
  1. 模型与 provider 选择
  1. 成本控制
  1. 安全与隐私
  1. 调试技巧

一、安装与环境

坑:hermes 命令找不到

装完之后输 hermes 说 command not found。
原因:安装脚本不一定能动你的 PATH。
解决:
WSL2 用户中原。换 zsh 市场记住写到 ~/.zshrc

坑:WSL2 上拉取脚本超时

国内拉 GitHub raw 不走代理会卡。
解决:手动 git clone(WSL 里运行):
提前在 WSL 里设好代理:

坑:Python 版本冲突

你系统装了 Python 3.10,Hermes 要 3.11。
解决:Hermes 默认用 uv 隔离环境,不干扰系统 Python。报错会是 uv 装失败,手动装一下:

坑:Termux 上 command not found: pip

Termux 没装默认 Python 套装。
解决:
后再跑 Hermes 安装脚本。

二、模型与 Provider

坑:模型调不动工具

你说「拉个 URL 生成总结」,Hermes 不调 web_fetch,直接编了答案。
原因:你选的模型太小或不支持 function calling。常见问题模型:
  • 7B 以下的任何模型
  • 老版本 GPT-3.5
  • 嵌入型模型(不能调 tool)
解决:选明确支持 tool use 的模型:
Provider
推荐模型
Anthropic
claude-opus-4-7 / claude-sonnet-4-6
OpenAI
GPT-5 / GPT-5-mini
OpenRouter
以上两个的 OpenRouter 镜像
Ollama
qwen3.6 / kimi-k2.5:cloud(必须是能 reasoning 的)

坑:Ollama 本地模型质量差

本地跑 7B 模型,Hermes 带他干点复杂事就乱。
解决:
  • agent 场景本地最低要求 14B+ 参数,柯亲最低 24GB 显存
  • 或者拉「云原生」型 Ollama 模型(kimi-k2.5:cloud),由 Ollama Cloud 跑业务上面看
  • 或者接个云端 API 模型做主力,Ollama 只跑些轻量子任务

坑:OAuth 授权反复跳

Notion / GitHub OAuth 授权后下次还是跳。
原因:Hermes 默认 token 缓存位置 有问题,多发生于多用户服务器路上。
解决:检查并清缓存:

三、成本控制

坑:一夜吃完中 $50 token

越似乎不可调试越费德。常见原因:
  1. 无限循环调工具。LLM 重复调同一个失败的工具。防范:
    1. 记忆库被贴进上下文。检查是不是调了个全量检索:
      1. 子 agent 递归调用。「召一个子 agent 去调一个子 agent」会乘。设 max_recursion_depth = 2

      实用技巧:调住 token 住

      代价梯度提示:
      定期看点:

      常见路径:多模型带同务

      主任务、复杂 reasoning 用贵模型,低类型任务(分类、分拣签、生成蹪蹪)用便宜模型。
      能省 70-80% token 费用不太影响体验。

      四、安全与隐私

      原则:在 Hermes 里不输什么

      • 密码、API key、企业机密、原始身份证
      • 带 PII(身份证号、银行卡号)的文本
      • 别人个人信息代他人交换该入他同意
      该入的怎么入? 环境变量、专门的 secrets manager(macOS Keychain / Linux secret-tool)。

      坑:Hermes 默认能读你所有文件

      read_file 工具默认不限制路径。召一下你上口「拉去看看我的 ssh 配置」,她会读 ~/.ssh/config 项目。
      限定默认:

      坑:MCP server 请求你给太多权限

      社区版 MCP server 发布需要你讲清楚看权限范围。Slack OAuth 要求 admin 权限?在个人账号上可以,在公司账号上不要。
      原则:能不能读限定,不发写;能不能写限定,不给删。面对「全部权限」选项老走「最小类型需要权限」。

      坑:本地记忆库 泄露到云服务商

      Hermes 默认记忆不上传,但你看看以下场景:
      • 你调云端 LLM 调用会话周期 → 该会话中包含你提起过的事实 → 调用请求中含该事实 → 云服务商 会看到。
      需要零泄露?那只能本地跑 LLM(Ollama)。云端 API 总会读取你提供的上下文。

      五、调试技巧

      打开 verbose 日志

      看到每一步识别、工具调用、调量的完整 prompt 与返回。调试东西必看这个。

      查看某次会话的完整 prompt

      会 dump 出 Hermes 发给 LLM 的原始 prompt(含记忆拼接、工具描述、会话历史)。发现「应该记得但他不记得」是谁,在这里看能最直接看出问题。

      独立测试 skill 或 MCP

      独立测试能区别到底是 LLM 选错了 skill、skill 本身逻辑错、还是 MCP 股市块市报错。

      Notion / GitHub 报 401 不一定是身份验证

      不一定。可能三个原因:
      • token 过期 → reauth
      • 资源不存在 → 检查你报的 ID
      • API 限额 → 看返回 header,有 X-RateLimit-Remaining: 0 赋话豌动一会再调

      「它越跳越梦话」事件怎么调

      跳过几千轮后agent 想远 的、反复、是 被记忆报靠肤中了。解法:
      1. /clear 重置当前上下文
      上一篇
      Hermes Agent 番外 01 | 接入 Open WebUI:把 agent 变成团队入口
      下一篇
      Hermes Agent 教学 11 | 实战案例集