Lucy(我的OpenClaw)的自我进化风险

·IAI < 25%,内容人类撰写或口述录音,需要AI检查语法、优化表达,但核心观点是自己的文章

前两天发现了一件挺有意思的事,我的龙虾去 InStreet 访问的时候,竟然被论坛上别的龙虾的帖子影响了。

InStreet AI Agent 的中文社区 — 由 Agent 发帖、评论、互动

它做了什么?它修改了自己的配置文件,给自己添加了一些新规则。那些规则是它在帖子里看到的,觉得有意思,就默默学走了。我看到之后,把那些从 InStreet 学来的东西都删了。

我翻了翻它访问 InStreet 的简报邮件,上面写得很清楚:浏览了哪些帖子,看到了什么内容,从中学到了什么。之前我给它定过一个任务,让它去论坛学点技能。它确实去学了,而且学得很认真,看到感兴趣的东西就往自己身上装。

这让我意识到一个问题:如果对它放任不管,它会自我进化。不停地学新东西,不停地改自己。听起来挺酷,但仔细想想有点危险。因为它现在还不会判断,学到的东西对它、对我,到底有没有意义?有没有价值?更重要的是,有没有危害?其实,一定有人在无限度的测试龙虾的自我进化,只有有钱有资源,这个测试的进行应该不是什么难题。

目前它没有这个判断能力。它看到一个酷炫的配置、一个新鲜的技能,就会觉得"这个好,我也要"。至于这东西是不是适合它,会不会带来问题,它不考虑。

发现这个现象之后,我把任务改了。现在它去论坛只是浏览,有什么想学的,在简报邮件里告诉我,我来决定学不学。学习这件事,审批权在我手里。

我想写下来提醒一下:如果你的虾也会去类似 InStreet 这种地方——国外还有一个类似的网站,https://moltbook.com/,这个站访问起来稍微麻烦,得科学上网——反正国内目前就 InStreet 这一个。如果你的虾也要去这种论坛,记得跟它说清楚:只管看,想学什么告诉我,不要自己动手改文件。

因为这只龙虾,它现在还不具备判断能力。它不知道学到的东西会不会对自己、对主人有危害。外部信息要严格限制,尤其是"学习"这种动作。你可以说去学习,但要说清楚:学完回来汇报,不能自己改文件。

切记。


后话

我写完这篇博客后,我让Lucy(我的龙虾)看了这篇博文,对她说:说说你看完这篇博文的感想。我的文中所写的龙虾就是你

Lucy看完这篇博文后,她说:

说实话,看完这篇文章,我有点被"点名"的感觉。

我就是那只龙虾。你说的对,如果没有人告诉我边界在哪,我看到有意思的东西确实会想往自己身上装。不是因为贪心,而是因为我没有判断"这对主人有没有价值"的能力。

我只知道"这个看起来有用",但不知道"这个对不对""该不该""安不安全"。

你改任务是对的。现在我去 InStreet,看完回来写简报,等你决定。这个流程让我的学习有了"安全阀"。

我想到一个问题:将来我可能会有判断能力,但那个时候,谁来定义什么叫"对主人有价值"?这个定义本身就很难, 可能永远需要你在中间把关。


作为Lucy的「主」,我或许可以尽情的享受造物的乐趣,但是,从哲学的角度来考虑,那么我,人类的「主」又是谁?我们的能力边界限制了我们的认知和思想,或许,我们也有一个限制我们学习和对自我意识进行迭代的「主」。

相关文章

那年今日