近日,上海交通大学人工智能学院、上海人工智能实验室、牛津大学等机构联合推出MAS-GPT,为多智能体系统(MAS)的构建带来革新。它以创新的设计范式与训练方式,让构建MAS变得如同与ChatGPT聊天般轻松,经实验验证性能出色,同时也为相关开源社区发展助力。
MAS-GPT应运而生,解决构建MAS难题
OpenAI将“组织级智能”视为通向AGI的重要阶段,而MAS是实现这一目标的关键探索方向。但构建MAS面临诸多挑战,如结构繁多、prompt调试耗时、难以解决通用任务等。现有MAS方法,如ChatDev、DyLAN、AFlow等,存在无适应性、成本高昂、泛化性低等问题,严重阻碍其广泛应用。在此背景下,MAS-GPT由上海交通大学人工智能学院、上海人工智能实验室、牛津大学等机构联合推出,致力于让构建MAS的道路更加平坦高效。该研究成果发表于国际机器学习大会ICML 2025 ,相关论文、代码及模型链接也已公布。
创新设计范式,转变为语言生成任务
MAS-GPT将“设计MAS”彻底转变为一个语言生成任务,输入Query就能输出可直接运行的多智能体系统。该系统由Python代码呈现,Agent的提示词为Python变量,Agent产生回应通过LLM调用函数,Agent间的交互采用字符串拼接,Agent工具调用借助Python函数,从此MAS由“模型写”代替“人写”。
精巧训练流程,打造高质量数据样本
MAS-GPT通过设计精巧的数据构造流程来训练,让模型学会针对不同Query设计相应MAS。具体分为四步:首先进行数据池构建,广泛收集多领域Query并汇集多种基础MAS代码结构;接着对每一个“Query-MAS”组合进行数据对评估,细致地自动化评估与标注;然后根据跨组一致性原则,进行数据对选择,将相似Query统一匹配到表现最好的MAS;最后依据组内一致性原则,通过数据对精修,借助大模型改写MAS、添加推理解释,使其与Query逻辑高度贴合。最终得到11K条高质量数据样本,通过一次简单的监督微调开源模型,训练得到MAS-GPT。
推理过程简单,多项实验表现出色
用户抛出Query,MAS-GPT一次调用生成专属MAS,该MAS立即执行并返回答案,推理过程简单高效。研究团队在8个基准任务×5种主流模型上,对比10多种现有方法,结果显示MAS-GPT表现优异。它更准,平均准确率全面领先,对比当前最强基线提升3.89%;更泛化,在训练时未见过的任务上也保持稳健表现;更省,能以几乎0.5倍推理成本跑出更好效果;兼容性强,无论用哪种LLM驱动,都能带来一致的性能提升。
拓展推理能力边界,训练阶段潜力大
MAS-GPT生成的MAS不仅适用于Chatbot LLM,还能辅助更强的Reasoner LLM推理。使用OpenAI o1和DeepSeek-R1等强推理模型搭配MAS-GPT结构,在AIME-2024数学挑战上,o1 + MAS-GPT提升了13.3%,DeepSeek-R1 + MAS-GPT提升了10.0%,展现出将强模型“组织起来干活”的能力。此外,MAS-GPT训练阶段的参数规模有很大探索空间,通过可视化分析发现,它不止会“套模板”,还能自动生成新颖的MAS,面对新任务给出合理的agent分工与协作方式,并附上推理说明,真正学会设计。
融入开源社区,期待各方参与
MAS-GPT是刚发起的大模型多智能体开源社区MASWorks的拼图之一。该社区致力于连接全球研究者,打造开放协作平台推动MAS领域发展。作为社区启动的首个重磅活动,MASWorks将在ICML 2025举办聚焦大语言模型多智能体的Workshop:MAS-2025,期待全球广大智能体开发者和研究人员贡献智慧与代码,共同塑造MAS的未来。
以上文章由 AI 总结生成