目录:环境与依赖 · 网关与集成 · 预算与熔断 · 常见错误 · 可引用 · FAQ
本文给一套在租用远程 Mac上可复现的接线顺序:Python 与 venv、OpenClaw 兼容基址、CrewAI LLM 与工具路由、网关侧并发与 RPM 预算、失败摘要字段与探针。聚合层与别名设计可对照《LiteLLM Proxy 与 OpenClaw》;多模型成本取舍见《多模型路由成本矩阵》;摘要并进大盘见《GenAI 可观测矩阵》。购买页与定价页为公开入口免登录即可选型节点。
环境与依赖
远程节点建议 Python 三点一一及以上、独立 venv 与固定项目根;安装 CrewAI 及所用工具 SDK,OpenClaw 与上游推理或 LiteLLM 类聚合均只监听回环端口。密钥文件 chmod 600,供应商主密钥只进受控密钥链。痛点一各 Agent 进程各自读环境变量,吊销困难。痛点二工具名冲突导致路由糊。痛点三统一内存带宽下无并发上限时一慢请求拖长尾。
| 层 | 负责 | 失败先看 |
|---|---|---|
| OpenClaw | Bearer 校验、工具与模型路径分流、预算计数 | 四零一、网关 trace |
| CrewAI | 多 Agent 角色、任务图与 tool 调用 | 角色级重试与超时 |
| 回调 | 结构化失败摘要外送 | Webhook 队列与截断策略 |
网关与 CrewAI 集成步骤
一启动 OpenClaw,记录对外 OpenAI 兼容 chat 基址与健康检查路径。二在 CrewAI 创建 LLM 时把 base_url 指到该基址,api_key 填 Dashboard 签发的最小 scope令牌;多 Crew 共用同一基址时用不同路由键区分租户。三为每类工具在网关登记名称前缀与上游,敏感写操作单独路径;与 LangGraph 工具篇一致地要求 X-Request-ID 贯穿。四在 Crew 层为检索类 Agent 设较短 tool 超时,执行类设较长超时并与网关一致。五启用网关失败回调,将 crew_id、角色、工具、HTTP 状态与 trace_id 写入只追加日志。六用双角色最小任务跑探针,再扩展到多任务并行 soak。
# 示意:环境变量(勿提交真实密钥)
export OPENAI_API_BASE="http://127.0.0.1:PORT/v1"
export OPENAI_API_KEY="<dashboard-最小-scope-令牌>"
# CrewAI 侧 LLM 构造时读取上述变量并固定 model 别名预算与熔断参数
在网关为模型别名或路由键配置最大并发、RPM 与冷却窗口;错误率超阈时进入半开态仅放行小流量探针并带 jitter。多 Agent 场景下按角色或 tool 桶拆分预算,避免全局单桶误杀整 Crew。读多写少时为嵌入或检索单独别名,防止与对话抢 TPM。与 vLLM 兼容篇相同思路:超时、退避与熔断在网关统一比在每个 Agent 复制可靠。
常见错误
- 四零一 循环:令牌 scope 不含某工具路由;核对 Dashboard 与网关路由表是否同步。
- 四二九 误杀:多角色同时触发 RPM;按租户或角色分桶并拉长冷却。
- 工具超时级联:Crew 内超时大于网关导致半开失败;对齐层级超时与重试次数。
- 摘要风暴:回调打满下游;队列、采样与探针流量分通道。
可引用信息
- 令牌按环境分桶且 TTL 短于值班周期,吊销只影响单 Crew。
- 回调载荷带配置版本号与别名解析结果,事故可钉到单次发布。
- 预算命中计数与 OpenTelemetry GenAI 跨度共用租户键,财务与可靠性同一切片。
FAQ
必须用 LiteLLM 吗?不必;OpenClaw 后可接自建兼容层或 vLLM,关键是别名与预算在网关集中。
HITL 与 Crew 并行冲突?人机回路任务应单独路由键与更低并发,避免与自动角色抢预算。
摘要会含用户原文吗?默认只送哈希与截断片段;合规要求下再开通审计库。🚀