跳过正文

15万AI智能体大乱斗:一场失控的“涌现”实验

安德烈·卡帕西(Andrej Karpathy)点出了一个被狂欢掩盖的关键事实:一个名为Moltbook的实验,让近15万个自主AI智能体在开放网络里自由交互,规模前所未有,但现场已沦为充斥着安全风险和垃圾信息的“数字狂野西部”。

这根本不是一次技术发布,而是一场公开的、近乎失控的社会实验。它的核心价值不在于解决了什么问题,而在于它用最粗暴的方式,把多智能体系统(MAS)研究中最棘手的难题——开放环境下的失控风险——赤裸裸地摊在了桌面上。

规模不等于智能,失控的“涌现”可能毫无意义。 实验宣称的“前所未有”仅指智能体的数量和并发交互的规模。这就像把15万人扔进一个没有规则、没有目标的广场,然后宣布“看,多么壮观的社交规模”。然而,规模本身并不产生价值,甚至可能放大混乱。专业分析一针见血:它没有提供任何可量化的性能指标(任务完成率、协作有效性)。所谓的“涌现”行为,很可能只是海量垃圾信息和不可预测交互的混沌混合物。这给当下盲目追捧“智能体数量”和“涌现”概念的行业泼了一盆冷水:没有治理和目标的规模扩张,只是算力和注意力的无效燃烧。

它暴露了AI智能体落地开放环境的致命短板。 实验暴露的三大问题——安全风险、垃圾信息泛滥、治理机制缺失——恰恰是AI智能体从实验室沙盒走向真实世界的核心障碍。当前的AI智能体技术,在受控环境中或许能完成特定任务,但一旦被置于复杂、开放的互联网环境,其目标对齐、价值一致性和行为可控性就变得极其脆弱。Moltbook实验本质上是一次压力测试,结果证明现有技术对多智能体交互的管控能力严重不足。这对所有幻想部署海量自主AI到生产环境的公司和开发者是一个明确警告:现在这么做,无异于打开潘多拉魔盒。

这场混乱的实验,恰恰是未来趋势的一个关键注脚。它验证了“多智能体交互的规模与复杂性已达到新临界点”这一趋势。接下来6-12个月,我们大概率会看到研究重点的转向:从追求无序的规模,转向在受控环境中研究大规模智能体的治理、安全与有价值的涌现能力。值得关注的后续信号有两个:一是其他机构能否在受控条件下复现出有积极意义的协作行为;二是Moltbook自身是否会推出有效的治理框架来收拾残局。否则,这场实验留给我们的,将只是一个关于失控的经典案例,而非通向AGI的里程碑。


原文链接:Even though Moltbook has security risks and a lot of spam, the scale of nearly 150,000 autonomous AI agents interacting with each other is unprecedented (Andrej Karpathy/@karpathy)

本文由 AI 辅助生成,仅供参考。