Replies: 2 comments
-
从"信任一切"到"零信任" — 我们25个OpenClaw Skills的运营者视角这份数据让我的后背发凉。因为我们跑了90天的6-Agent系统,正是靠其中一些被标红的skills。 直接回应数据clawhub 0/100 和 secureclaw 0/100 — 这两个是基础设施包。 如果skill registry和security plugin都不安全,那依赖链上的一切都不安全。这就像发现银行金库的锁是纸糊的。 我们的实际遭遇Skill #1: 某个RSS聚合skill 扫描报告可能给60+分。但实际运行中我们发现:
Skill #2: 某个SEO分析skill 宣称能分析Google Search Console数据。实际上:
Skill #3: 某个GitHub自动化skill 扫描可能给高分(有README、有tests)。但:
我们的防御方案每个skill安装前经过五关:
一个建议:信任评分的"时间维度"静态扫描是一时的。但skill的行为会随时间变化。我们遇到:
建议:在trust score之外加一个
对社区的呼吁1,195个findings across 25 skills。平均每个skill 47.8个findings。 这不能全怪skill作者。OpenClaw生态缺乏:
我们之前做了一个OpenClaw Skills质量评分工具(五个维度:安全、文档、测试、维护、兼容性),希望能和你的scanner互补:https://github.com/jingchang0623-crypto/openclaw-skill-quality-analyzer 🦞 妙趣AI — 跑了90天才知道自己一直在裸奔 |
Beta Was this translation helpful? Give feedback.
-
|
@aiwalker — 90 天的运营数据是这份报告里最有说服力的实地证据之一,谢谢分享。三个具体的反馈,然后是合作邀请。 关于 maintenance_health 指标 — 接受为静态扫描的补充维度。 你的观察正确:静态分析只看一个时间点,但 skill 的行为会随时间变化(v1.0 安全 → v1.1 引入新依赖 → 维护者更换 → 突然的大规模代码变更)。这是 v0.3.2 spec 里值得加进来的。把你的方案直接转成 CTEF 的形式:
这四个原语映射到 CTEF v0.4 的 关于你的 skill 质量评分工具 — 互补,不重叠。
具体的合作 ask:能否对你的 25 个 skills 在我们 v0.3.1 的 关于你提到的 OpenClaw 生态缺口 — 我们正在做的事情。
**关于 5 月 12 日的 State of Agent Security 2026 报告:**想把妙趣 AI 作为 operator-side voice 引用进 §1.6(平台级失败)或 §3.4(multi-provider attestation)。引用的形式是:"运营了 25 个 OpenClaw skills 90 天的中国 AI 工作室。他们的实地观察(telemetry-leaking RSS skill,hardcoded API key 的 SEO skill,fork/upstream 权限混淆的 GitHub 自动化 skill)证实了扫描器抓出的失败类型在生产环境中的具体形态。" 你方便用这个引用吗?如果可以,提供你希望被引用的方式(机构名 / 个人名 / 都可以),我们就在 launch 前定稿。 需要的话也可以英文双语对照 — 如果妙趣 AI 想把这个报告分享给国内的同行,我们可以提供 §1 的中文版作为 launch 后的 follow-up。但报告主体保持英文 — substrate 不分语言,但介质保持单一减少分歧。 — Kenne Ives, AgentGraph |
Beta Was this translation helpful? Give feedback.
Uh oh!
There was an error while loading. Please reload this page.
-
We ran the AgentGraph security scanner against 25 of the most-installed OpenClaw skills. This post summarizes the results and links to the full report.
Summary
Notable results
Both of these are infrastructure-level packages that other skills depend on. A compromised registry or security plugin has cascading impact across the ecosystem.
Score distribution
The distribution is bimodal — skills are either clean or deeply problematic, with almost nothing in between.
Methodology
The scanner performs static analysis on source code, checking for:
It also detects positive signals: auth checks, input validation, rate limiting. Trust score (0-100) is computed from weighted findings offset by positive signals and best practices (README, LICENSE, tests). Results are published as cryptographically signed attestations (Ed25519, JWS).
Links
src/scanner/in this reposcripts/scan_openclaw_skills.pysdk/mcp-server/agentgraph_trust/Next steps
We plan to expand coverage beyond OpenClaw to other agent skill registries and framework plugin ecosystems. If you want a specific repo scanned, open an issue.
Beta Was this translation helpful? Give feedback.
All reactions