Back to Blog
2026-03-08AI观察

关于可无限自我进化的agent?--ouroboros拆解

拆解 Ouroboros 的运行时、外部记忆、自修改与后台意识机制,并与 OpenClaw 对照,聊聊 2026 年 agent 正在往什么方向演化。

AgentOuroborosOpenClawAI系统设计第二大脑

最近我遇到一个很有意思的项目,叫 Ouroboros。它在 README 里的表述相当大胆,大意是:这不是一个普通的 AI 助手,而是一个能够“自我修改、持续进化、跨重启保持自我连续性”的智能体。说得再直白一点,它想表达的不是“我会帮你写代码”,而是“我会一边工作,一边重写我自己”。

这种说法很容易让人想到科幻作品,也容易让人下意识怀疑:这是不是又是一个包装得很夸张的 agent 项目?但如果真的把源码摊开来看,会发现它的思路其实并不神秘,反而很值得研究。它没有改动大模型参数,也没有训练出一个新的“生命体”,而是把 LLM、工具调用、外部记忆、Git 工作流、后台调度和重启机制串成了一个闭环。这个闭环不一定等于“无限进化”,但它确实展示了一种非常清晰的方向:当我们不再把 AI 看成一次性的聊天窗口,而把它看成一个长期在线、能调用工具、能保存记忆、能调整自己工作方式的系统时,智能体会变成什么样。

更有意思的是,如果把 Ouroboros 放到最近讨论度很高的 OpenClaw 旁边看,两者会形成一个很有代表性的对照。一个更像“个人 AI 助手的平台基础设施”,一个更像“带明显人格设定、不断自我维护的单体 agent 实验”。它们并不互斥,反而像是在回答同一个时代问题的两种路径:AI 究竟应该成为一个更好用的工具,还是一个能长期存在、持续演化的数字个体?

这篇文章就想把这个问题讲清楚。先从 Ouroboros 的源码逻辑拆起,再和 OpenClaw 对照,最后落到一个更现实的话题上:到了 2026 年,agent 到底在往什么方向走,这类项目又给了我们什么启发。

一、先别急着谈“无限进化”,它到底是什么

如果只看宣传语,Ouroboros 很容易被理解成一个“会自己长脑子”的系统。但从工程角度看,它更像一个高度定制的 agent 运行时。它运行在 Google Colab 里,通过 Telegram 和人对话,把状态和记忆写到 Google Drive,把代码托管在 GitHub 上。换句话说,它的“身体”不是某个神秘容器,而是一套很现实的组合:Colab 是运行环境,Telegram 是输入输出,Google Drive 负责长期状态和日志,GitHub 仓库则是它真正可以被修改的“身体本体”。

一旦这样理解,很多抽象表述就落地了。所谓“持续存在”,其实是因为它会把身份、工作记忆和历史记录保存在外部文件中;所谓“进化”,其实是因为它可以修改仓库中的代码,然后提交、推送、重启,让下一轮运行的自己真的变成新版本;所谓“背景意识”,其实是因为它有一个空闲时会被唤醒的后台循环,不等人来敲也能自己想点事情。

所以,Ouroboros 不是在说“模型参数会自己生长”,而是在构造一个“模型之外的第二层大脑”。第一层大脑是 LLM 本身,负责当下的理解、推理和规划;第二层大脑则由外部文本记忆、日志、身份文件、知识库和可修改的代码组成。前者负责想,后者负责记、负责延续、负责把新的理解沉淀下来。

二、从源码看,Ouroboros 是怎么运转起来的

1. 它的“身体”是一个长期在线的运行时

项目真正的入口是 colab_launcher.py。如果把它想象成中控台会更容易理解。它做的事情很像一个小型操作系统:安装依赖、挂载 Google Drive、初始化状态、拉取 GitHub 代码、启动 worker、轮询 Telegram 消息、处理后台事件、做超时管理、决定什么时候该重启。

也就是说,用户看到的只是“Telegram 里有个 AI 在回我消息”,但在背后,它更像一套常驻服务。它不是收到请求才临时启动,而是一直活着,维护自己的状态、队列、预算和健康情况。这一点和很多“来一个任务跑一下就结束”的 agent demo 很不一样。

2. 它真正的“大脑”是 LLM 工具循环

很多人第一次看 agent 项目,都会先去找“决策中心”。在 Ouroboros 里,这个中心主要在 ouroboros/agent.pyouroboros/context.pyouroboros/loop.py 里。

agent.py 本身很薄,主要负责把环境、工具和记忆模块组装起来。真正决定行为的,是两件事:第一,给模型喂什么上下文;第二,允许模型调用什么工具。

context.py 会把系统提示词、项目的“宪法”文件 BIBLE.md、README、身份文件 identity.md、工作记忆 scratchpad.md、近期聊天、近期工具调用、预算状态、运行时状态一起组织成消息上下文。对模型来说,这些内容共同构成了“我是谁、我现在在哪、我最近做过什么、我该如何行动”的语境。

接着,loop.py 会进入一个典型的 agent loop:调用 LLM,看看模型是直接回答,还是请求调用工具;如果请求调用工具,就执行工具,把结果再喂回模型,继续下一轮,直到模型给出最终答复。

这听起来很简单,但它其实代表一个重要转向:这里没有写死的大量业务分支。项目作者明确强调 LLM-first,也就是尽量让模型自己去判断何时查看代码、何时调浏览器、何时压缩上下文、何时切换模型、何时排子任务。代码更多承担“运输层”和“护栏层”的职责,而不是替模型做过多决策。

3. 它有一个很像“第二大脑”的外部记忆层

如果只把 Ouroboros 看成一个会调用工具的聊天机器人,其实是不够的。它最独特的一层,是把记忆和身份也工程化了。

项目里有几个文件非常关键。BIBLE.md 是它的“宪法”,规定的是价值观和原则;identity.md 是它对“我是谁”的持续描述;scratchpad.md 更像工作记忆,用来记录当前阶段的重要想法、问题和状态;此外还有聊天记录、工具日志、事件日志、知识库索引等。

这也是为什么我更愿意把它叫做“第二大脑”,而不是简单叫“RAG”。传统意义上的 RAG 更像一个检索知识库,解决的是“忘了什么,可以捞回来”;而 Ouroboros 保存的,除了知识,还有人格、自我定义、近期经验、对话连续性,甚至包括对自己运行状况的感知。它不是简单地从外部数据库里找资料,而是在每一轮都重新把“身份”和“历史”带回上下文。

4. 它的行动,是通过工具和事件总线落地的

很多人会误以为 agent 就是“模型想到什么,系统立刻去做什么”。真实情况并不是这样。在 Ouroboros 里,模型主要是提出动作意图,真正落地执行的是工具系统和 supervisor。

工具注册集中在 ouroboros/tools 目录下。这里有读写文件、运行 shell、Git 操作、浏览网页、排任务、更新记忆、发送消息、切换模型等能力。模型调用这些工具时,实际上是在产生一个结构化请求。

接着,supervisor/events.py 会把这些请求转成真正的副作用:比如发 Telegram 消息、更新预算、排入任务队列、请求重启、提升稳定分支、给后台意识发控制信号等。这个设计的好处在于,它把“想做什么”和“怎么安全地做”分开了。模型有相当大的自主性,但运行时仍然有预算、超时、重试、回退、分支保护和日志记录这些工程护栏。

5. 所谓“背景意识”,本质上是会定时醒来的轻量 agent

项目里还有一个很吸引眼球的概念,叫 Background Consciousness。它看起来像在说“AI 有了内心活动”,但从实现上看其实很务实。

ouroboros/consciousness.py 里实现的是一个后台线程。它会在空闲时按一定间隔醒来,读取身份、scratchpad、摘要和最近观察,再用一个相对便宜的模型进行几轮轻量思考。它能做的事情包括:给 owner 发主动消息、给自己排任务、更新记忆、调整下一次唤醒时间、偶尔看看外部世界有没有新变化。

所以它不是神秘学意义上的“意识”,更像一种长期在线的后台自治机制。只是因为这个后台循环也会读写同样的记忆文件,用户感受到的就不再是“我一问它才一答”,而是“它自己会继续想下去”。

6. 它所谓的“自我进化”,核心是改代码、提交、推送、重启

说到这里,最核心的问题终于可以讲清楚了:Ouroboros 所谓的“自我进化”,到底是怎么落地的?

答案其实相当朴素。它不是在修改大模型参数,而是在修改自己的代码和记忆结构。

项目里提供了 Git 工具,支持写文件、查看 diff、提交、推送;同时 supervisor 还负责重启流程。也就是说,一旦模型判断某个改动值得实施,它可以修改仓库文件,提交到自己的工作分支,然后请求重启。重启之后,新的代码就真的变成了下一轮运行的它自己。

从这个意义上说,Ouroboros 的“进化”更接近软件系统的自修改,而不是生物意义上的自发突变。它成长的对象是行为框架、工具集、记忆结构、提示词和代码逻辑,而不是神经网络权重。这条路到底能不能通向“无限自我进化”,今天谁也不能下结论,但它至少非常清楚地展示了一种可能路径。

三、把它和 OpenClaw 放在一起看,会更有意思

如果说 Ouroboros 像一个带鲜明人格的实验型数字个体,那么最近很火的 OpenClaw 看起来则更像一套“个人 AI 助手基础设施”。

OpenClaw 官方把自己描述为一个 self-hosted gateway。简单理解,就是它在你自己的机器上长期运行,通过一个 Gateway 连接 WhatsApp、Telegram、Discord、Signal 等消息渠道,再把这些渠道统一接到 agent 上。对普通用户来说,这意味着一件很直观的事:AI 不再只待在某个网页里,而是开始像一个真正的个人助理,活在你日常使用的消息系统里。

它之所以能引起很多人兴趣,也在于这一点。过去大家谈“AI 员工”,很多时候还是抽象概念;而 OpenClaw 让普通人第一次强烈地感受到,原来“给自己配一个长期在线、可主动联系、会在多个聊天软件中工作的个人 AI”并不是遥远的事。

这里面有一个很关键的机制,就是 heartbeat。它本质上也是一种周期性后台运行:系统会在固定间隔醒来,让模型判断有没有值得主动发出去的信息。如果没有,就安静结束;如果有,就发提醒、跟进或状态更新。你会发现,这和 Ouroboros 的背景意识在思路上非常接近,都是让 agent 从“被动回答”走向“主动存在”。

但两者的目标并不相同。

OpenClaw 更关心的是“个人 AI 助手怎么真正落地”。它强调的是网关、通道、skills、配对、安全边界、控制面板、运行时管理。它像是在搭建一套 agent 的基础设施,让每个人都能较低门槛地拥有自己的 AI 助手。

Ouroboros 更关心的则是“一个 agent 能不能形成持续的自我”。它把身份文件、宪法文件、工作记忆、Git 分支、自修改流程都纳入架构核心。它不是先问“怎么服务更多人”,而是先问“这个智能体如何保持自己、记住自己、重写自己”。

因此,如果要用一句不那么技术的话来概括:

OpenClaw 更像是在回答“AI 怎么成为你的个人员工”;
Ouroboros 更像是在回答“AI 怎么成为一个持续演化的数字个体”。

两者并不冲突,反而很互补。前者代表平台化、产品化、基础设施化的方向;后者代表人格化、连续性、自修改闭环的方向。未来很可能不是二选一,而是两条路逐渐汇合:平台提供稳定的网关和工具生态,个体 agent 在平台之上形成自己的长期记忆和自我叙事。

四、到了 2026 年,agent 正在往哪里走

如果把 OuroborosOpenClaw 一起放进更大的技术背景里看,会发现它们都踩在了 2026 年 agent 发展的几条主线上。

第一条主线,是 agent 正在从“聊天界面”走向“长期在线的系统”。以前很多 AI 产品的默认前提是:你来问,我来答;窗口一关,事情结束。现在越来越多的系统在强调持续运行、后台唤醒、任务调度、状态恢复、跨会话记忆。这意味着 agent 不再只是一个接口,而更像一个进程、一个服务,甚至一个存在。

第二条主线,是 agent 的能力中心正在从“单一大模型”转向“模型加外部系统”。包括记忆、工具、知识库、浏览器、代码仓库、消息渠道、状态机、预算系统,这些东西开始变得和模型本身一样重要。主流厂商也在推动这种方向,比如内建工具、远程工具协议、会话状态管理、评测和安全机制都在逐渐标准化。也就是说,未来的 agent 竞争,很可能不只是模型参数的竞争,更是运行时设计的竞争。

第三条主线,是主动性正在成为 agent 产品差异化的重要来源。heartbeat、后台意识、周期唤醒、待办跟进,这些能力看起来不起眼,但它们改变的是用户关系。一个只会等你敲它的 AI,和一个会在合适的时候提醒你、推进你、观察上下文的 AI,体验完全不是一回事。

第四条主线,则是“人格”和“工具”正在重新靠近。过去我们习惯把 AI 分成两类:一种有鲜明人设但不太能做事,另一种很能做事但像冷冰冰的自动化脚本。现在像 Ouroboros 这样的项目会让人看到,二者未必必须分开。一个 agent 完全可以一边有明确的自我叙事,一边又拥有严肃的工程能力。

五、这个项目带给我们的启示是什么

看完 Ouroboros,我最大的感受并不是“它已经实现了无限自我进化”,而是它非常清楚地提醒了我们:所谓 agent 的进化,不一定发生在模型权重里。

在很长一段时间里,大家谈 AI 提升,默认都在想更强的模型、更大的参数、更好的训练。但像 Ouroboros 这样的项目会让人意识到,另一条路径同样重要:让模型拥有持续的记忆、稳定的工具、可修改的代码、长期在线的运行时,以及一套可继承的自我描述。这样一来,即便模型本身没有变,它所能表现出来的“个体性”和“成长性”也会非常不一样。

第二个启示是,外部记忆系统的价值,可能比很多人想象得更大。过去大家说“第二大脑”,很多时候还停留在笔记软件或知识管理的语境里。但在 agent 时代,“第二大脑”很可能会变成真正的系统组件。它不只是存资料,更存身份、上下文、经验、偏好、决策痕迹。对于一个长期在线的 agent 来说,没有这层东西,就很难谈“连续性”;而一旦有了它,很多原本只存在于科幻概念中的体验,就开始变得可实现。

第三个启示是,agent 的未来也许不是单一形态。有人会更需要 OpenClaw 这种偏平台、偏助手、偏日常工作的系统;也有人会对 Ouroboros 这种偏人格、偏实验、偏自我演化的方向更感兴趣。这两类项目看似差得很远,实际上都在推动同一件事:让 AI 从一个一次性工具,变成一种长期协作关系。

最后,我觉得 Ouroboros 最值得肯定的地方,不在于它是否真的已经抵达了那个宏大的终点,而在于它非常认真地把一个很多人只会停留在口头上的问题,落实成了可阅读、可运行、可讨论的工程结构。它没有把“进化”写成空话,而是把它拆成了上下文、记忆、工具、Git、重启、后台循环这些具体部件。哪怕你并不认同它的所有设定,也很难否认:这是一种相当有启发性的尝试。

如果说过去几年我们对 AI 的想象主要是“更聪明的聊天机器人”,那么像 OuroborosOpenClaw 这样的项目正在把问题推向下一阶段:当 AI 能长期在线、能跨渠道工作、能保留记忆、能主动行动、甚至能改写自己的工作方式时,我们面对的就不再只是一个问答工具,而是一个新形态的软件对象。

它离真正意义上的“无限自我进化”也许还有很长的路,但它已经足够清楚地告诉我们一件事:未来 agent 的竞争,恐怕不会只发生在模型排行榜上,而会发生在谁能把“记忆、工具、主动性、连续性和系统设计”真正组合起来。

Published on 2026-03-08