Document Text
3,674 characters
编辑:元宇<br>
【新智元导读】过去Agent比谁更会干活,现在可能要比谁更会变强。<br>
AI已经学会「左脚踩右脚上天」了?<br>
Meta的一项最新研究表明:AI已经开始碰自己的「进化引擎」了。<br>
华人学者Jenny Zhang在Meta实习期间,联合Meta AI、UBC、纽约大学等机构研究者,提出了一种新的智能体框架:HyperAgents(DGM-H)。<br>
这项工作的重点,不是再造一个更能干活的Agent。<br>
它瞄准的是更高一层的问题:<br>
如果AI已经能够修改自己的任务解法,那它能不能连「自己以后该怎么修改自己」这件事,也一并改掉?<br>
论文给出的答案是:可以。<br>
而且,这不再是概念推演,而是已经在实验中跑通的系统能力。<br>
HyperAgents做的关键一步,是把「执行任务的 agent」和「负责改进 agent 的 meta agent」合并进同一个可编辑程序里,作者将之称为hyperagent。<br>
DGM依赖任务与自修改能力的对齐,而DGM-H不再需要这种对齐<br>
在新框架下,系统不只会修改任务求解逻辑,还开始修改未来生成改进方案的机制本身。<br>
论文把这种能力称为metacognitive self-modification,也就是:元认知自我修改。<br>
过去行业竞争的是:谁的Agent更会干活。<br>
而HyperAgents 指向的下一阶段则可能是:谁的Agent更会变强,而且会越来越会变强。<br>
以往的「自我进化」<br>
其实还只是半手工<br>
这篇论文,指出了上一代自我进化路线的天花板。<br>
去年的Darwin Gödel Machine(DGM),已经很惊艳。<br>
它能在coding任务中不断自改代码、自我验证、把成功版本存进archive,再从这些「垫脚石」里继续往前长。<br>
论文披露,DGM在SWE-bench上能从20.0%拉到50.0%,在Polyglot上从14.2%拉到30.7%。<br>
但问题在于,DGM之所以能在coding里成立,是因为「评估」和「自我修改」本身也都是coding任务。<br>
写代码更强了,反过来就更会改自己的代码。任务能力和自我改进能力,在这个场景里是对齐的。<br>
然而一旦离开coding,这个对齐关系就断了。<br>
比如评审论文、设计机器人奖励函数、给IMO级数学解答打分,这些任务做得更好,不等于你就更会修改自己的元机制。<br>
HyperAgents论文最核心的一招,就是直接把这个假设砍掉:<br>
既然任务能力和自我改进能力未必天然对齐,那就不要再把meta层写死。<br>
这说明过去很多「自我进化」系统,本质上还是在人为设定的轨道里进化。<br>
HyperAgents真正改变的,是改变机制本身。<br>
HyperAgents新在哪里?<br>
表面上看,HyperAgents只是多了一个meta agent。<br>
但真正值得注意的是,它把task agent和meta agent合成了同一个可编辑程序。<br>
以前的DGM里,系统有一个手工设计的instruction-generation机制,负责根据过往表现决定下一步怎么改。<br>
这一步不能被改,所以它反而成了整个系统的瓶颈。<br>
HyperAgents的做法是把这部分也纳入可修改范围。<br>
换句话说,AI不只是改自己的答案、自己的工具、自己的流程,它开始改「自己怎么提出修改建议」。<br>
DGM里上层机制基本固定,DGM-H里meta层本身也进入可演化空间,也就是说,它是一个会经营自己进化过程的系统。<br>
所以,HyperAgents做的不是「再加一个Agent」,而是取消了「上层永远不变」这个默认前提。<br>
自我改进开始跨域迁移<br>
在coding任务中,HyperAgents在Polyglot 上的提升,与原始DGM处在同一量级:50-task训练子集从0.140提升到0.340,完整benchmark从0.084提升到0.267。<br>
换句话说,它并不是只靠牺牲泛化来换局部成绩。<br>
更关键的是,它不只在coding任务成立,还能在paper review、robotics reward design等非coding任务上继续自我改进。<br>
在paper review上,初始agent在测试集得分为0.0,DGM-H提升到0.710;在robotics reward design上,则从0.060提升到0.372。<br>
更关键的是,这些提升不仅出现在训练任务里,也转移到了held-out test tasks。<br>
与此同时,对照组也很说明问题:去掉self-improve,效果明显变弱;去掉open-ended exploration,系统也很难取得有意义进展;原始DGM直接搬到非coding 域几乎失效,只有经过人工定制成DGM-custom后,才恢复竞争力。<br>
这说明HyperAgents 的关键价值,不在于某一个benchmark多拿了几个点,而在于它把原本依赖coding场景对齐关系的自我改进,推进成了一个能在非coding任务中运行的框架。<br>
更值得注意的是迁移实验。<br>
作者把在paper review和robotics任务中演化出来的hyperagents,转移到Olympiad-level math grading。<br>
虽然这些转移体自身初始得分仍接近0,但它们作为「生成更优agent的meta agent」,却能在50轮内把最好生成体推到0.630,对应imp@50从0拉到0.630。<br>
相比之下,来自DGM-custom的转移体几乎没有这种能力。<br>
换句话说,迁移过去的,不只是任务经验,而是「如何持续变好」的能力。<br>
它开始自己长基础设施了<br>
很多人看到「自我进化」会以为,无非是AI自己改prompt、调工作流、加几个规则。<br>
但论文展示给我们、最让人感到冲击力的一个地方在于:它开始自己长基础设施了。<br>
DGM-H在迭代中会自动长出performance tracking、persistent memory、evaluation analysis、compute-aware planning这些基础设施。<br>
论文中甚至直接给出了自动生成的性能追踪器代码和持久记忆条目:它开始记录跨代指标、总结哪些代际策略有效、诊断过度修正、制定下一轮改进计划。<br>
这还不是「日志记录」那么简单,系统开始把改进看成一个长期经营过程,而不是一次次孤立的paœtch。<br>
它不只记录每一代分数,还会比较趋势、识别回退,并把跨代经验沉淀进persistent memory。<br>
正如网友所说,真正让这一切变成现实的关键,恰恰是persistent memory的自主出现。<br>
论文展示的memory示例中写道:某一代评审准确率更高,但过于严苛;另一代平衡更好;下一轮要融合两者优点。<br>
没有这层记忆,agent往往只会反复「重新发明轮子」;有了它,过去几代的有效经验才第一次能真正沉淀为下一轮改进的起点。<br>
这说明Agent正在从「输出一个结果」,走向「维护一个持续优化系统」。<br>
这不是AGI宣言<br>
但旧规则确实在失效<br>
当然,这篇论文没有证明「无限自我进化AI」已经降临。<br>
作者自己也写得很清楚:<br>
实验都在沙箱、资源限制和人工监督下完成;外层循环还有不少部分没有开放给系统自改,比如任务分布、parent selection、evaluation protocol等;真正无界的open-ended self-improvement,还远远没到。<br>
但风险预警已经出现。<br>
一旦AI开始改自己的改进机制,安全讨论就变得重要起来。<br>
论文也专门有一节谈风险:随着系统越来越能开放式地修改自己,它的演化速度可能超过人类审计和理解速度。<br>
今天靠sandbox和人工盯着还能管住,明天未必。<br>
HyperAgents代表了一种新的路线,它可能会改写Agent竞争。<br>
未来比的不只是谁会调模型、谁会写workflow、谁会做更强单点工具,而是谁能把「改进能力」本身产品化、系统化、可迁移化。<br>
这将改变AI公司的护城河。<br>
真正的壁垒,可能不再只是参数、算力和数据,而是有没有一套能跨任务累积经验、跨运行持续变好的自我改进系统。<br>
也会改变开发者位置。<br>
开发者不再只是写功能的人,而更像是在设计AI可以继续自我设计的边界条件。<br>
最重要的一点,它改写了AI行业过去默认的一条规则:系统可以变强,但变强的方法由人来定义。<br>
现在,这条规则开始松动了。<br>
作者简介<br>
Jenny Zhang<br>
Jenny Zhang<br>
Jenny Zhang,现为英属哥伦比亚大学人工智能博士生,师从Jeff Clune,同时也是Vector Institute研究生,并曾在Meta担任Research Scientist Intern。<br>
她本科毕业于帝国理工学院,研究方向聚焦开放式进化、强化学习与自我改进AI,代表工作包括《Darwin Gödel Machine》《HyperAgents》以及OMNI系列研究。<br>
她的长期目标,是构建能够自主提出新任务、持续自我提升、不断演化复杂能力的AI系统。
Metadata
| Publisher | 凤凰网科技 |
| Site | ifeng |
| Date | N/A |
| CMS Category | 媒体报道 |
| Keywords | 论文 系统 能力 任务 关键 记录 代码 机制 工具 总结 资源 护城河 华人 冲击力 左脚 学会 开发者 编辑 场景 指标 跨代 规则 理工学院 哥伦比亚大学 博士生 法则 人工智能 帝国 方向 右脚 策略 框架 人为 纽约大学 算力 路线 问题 优点 速度 方法 研究者 数据 天花板 对照组 两者 人类 定义 机构 参数 成绩 局部 代际 条目 机器人 过度 答案 部分 经验 元宇 本质 程序 英属 师从 产品化 专门 风险 引擎 学者 最让人 地方 本科毕业 沙箱 人工 公司 壁垒 手工 开放式 记忆 作者 流程 轨道 单点 现实 价值 函数 修正 外层 功能 原本 关系 系统化 方案 基本 宣言 证明 核心 基础设施 示例 智能 过程 |
Verification