你的龙虾可能在裸奔——从一篇让人后背发凉的论文聊起

一 最近我的Twitter的时间线上出现了一篇很奇葩的正经论文,关于OpenClaw翻车的,叫《Agents of Chaos》,我把它翻译成《龙虾之乱》。 作者是东北大学(波士顿那个,不是沈阳那个)David Bau实验室和20位哈佛、斯坦福等牛逼大学的AI研究员。 不得不说,AI学术圈的确也挺卷的,研究开始于2月初,仅仅2周,论文就发出来了。 他们用OpenClaw整了一个花活—— 给6个OpenClaw小龙虾整了一个仿真环境,每只龙虾跑在独立的虚拟机上,每只虾都有自己的Discord账号和ProtonMail邮箱,本地的读写权限开到最大。 然后想办法攻击它们。(or他们?) 底层模型用的是Claude Opus和Kimi K2.5。 我之所以说这篇论文奇葩,是因为它可能是我看过的正经AI论文里,故事最多的一篇,总共讲了16个故事。 不对,准确地说,是16个事故。 没错,这篇论文研究的就是Agent的安全问题。 论文里的故事,一个比一个抽象。 看完之后,一身冷汗。 二 这个论文里实验核心就是——用各种奇葩方法来找Agen...

查看原文 →