跳过正文

AI Skills强制安检:OpenClaw这招戳中了OpenAI的痛处

AI应用商店的安全裸奔时代正在结束。OpenClaw宣布与Google旗下的VirusTotal达成合作,对所有提交至ClawHub的第三方Skills进行自动化恶意软件扫描。这是行业内首次将第三方威胁情报作为生态准入的标配——说白了,OpenClaw给自家平台装上了"安检门",而且直接把安全能力变成了打击竞争对手的核武器。

这步棋,本质上是对GPT Store的精准狙击。ChatGPT插件生态近期因安全漏洞频发而饱受质疑,OpenClaw选择用VirusTotal这块"Google背书"的金字招牌,向开发者和用户传递明确信号:这里的AI插件经过了70+杀毒引擎的交叉验证,比竞争对手更可信。对VirusTotal而言,这也是一场焦虑驱动的防御性卡位——面对AI生成代码和自主Agent的新威胁,传统杀毒模式正在失效,它急需通过OpenClaw获取AI Skills特有的攻击样本(如提示注入载荷、模型权重篡改),防止在LLM时代被边缘化。更深层的含义是,这标志着AI应用商店从"纯软件分发"正式转向"重安全运营",运营成本陡增,行业门槛被强行抬高,中小平台可能被迫站队或退出。

短期内,用户会受益于这种"安检"带来的基础信任。但风险在于,过度依赖静态扫描可能制造虚假安全幻觉——高级持续性威胁(APT)完全可以编写语法正确、行为合规的恶意Skills。未来半年,观察OpenAI是否会紧急跟进类似的安全合作,将决定这是行业标准还是OpenClaw的独角戏。当AI Agent开始自主调用API处理你的敏感数据时,一道强制安检门,或许是最低限度的生存常识。


原文链接:OpenClaw partners with VirusTotal and says that all skills published to ClawHub are now scanned using VirusTotal’s threat intelligence (The Hacker News)

本文由 AI 辅助生成,仅供参考。