近日,智谱开源GLM-4.5及轻量版GLM-4.5-Air,这两款模型在能力融合与国际评测中成绩斐然,引发海内外AI圈热议。随后,智谱发布GLM-4.5技术报告,详解模型训练细节。同时,GLM-4.5在实际测试中展现编程潜力,还将与至像科技携手开启“智能体+打印”新征程,全面展示了国产大模型的强劲实力。
GLM-4.5开源发布,引发行业关注
上个月底,智谱开源新一代旗舰模型GLM-4.5以及轻量版GLM-4.5-Air。其首次突破性地在单个模型中实现了推理、编码和智能体能力的原生融合,还在12项全球公认的硬核测试中取得了全球第三的综合成绩,该成绩在所有国产模型和开源模型中均排名第一。消息一出,瞬间刷屏社交网络,官方推文浏览量突破120万,GLM-4.5模型更是连续7天登顶Hugging Face趋势榜单,研究者与开发者纷纷在社交平台点赞并分享其在各类基准上的最新测试成绩。
与OpenAI模型比拼,表现出色
在GLM-4.5热度持续升温之际,OpenAI开源gpt-oss系列模型,网友第一时间将它与GLM-4.5放到一起比拼,GLM-4.5整体表现依旧锋芒毕露。
技术报告发布,揭秘模型炼成之路
近日,GLM-4.5的技术报告正式发布。报告详述了GLM-4.5的预训练与后训练细节,还介绍了为其打造的开源强化学习(RL)框架slime,该框架兼具灵活性、效率与可扩展性,能为模型高效RL训练保驾护航。此技术报告也被Hugging Face用户投票为当天的「#1Paper of the day」。报告标题为GLM-4.5: Agentic, Reasoning, and Coding (ARC) Foundation Models,报告链接为https://arxiv.org/abs/2508.06471,GitHub地址为https://github.com/zai-org/GLM-4.5,Hugging Face地址为https://huggingface.co/zai-org/GLM-4.5 。
为何打造“大一统”模型
智谱研究团队认为,大语言模型正从通用知识库迈向通用问题求解器,最终目标是在广泛领域内达到人类级认知水平,这需要在复杂问题求解、泛化能力和自我改进等方面实现统一突破。衡量AGI的第一性原理,是在不损失原有能力的前提下融合更多通用智能能力。真正通才模型的标准应包括智能体、复杂推理、高级代码三项相互关联的关键能力,即ARC能力。现有模型算不上真正通才模型,尽管部分SOTA专有模型在特定ARC领域展现突破性性能,但尚无一个同时在上述三个领域均表现卓越的强大开源模型,GLM-4.5则力求在一个模型中集成这些不同能力,采用混合推理模式,复杂推理和智能体任务采用思考模式,即时响应采用非思考模式。
GLM-4.5的“修炼”秘籍
GLM-4.5采用MoE架构,在MoE层采用loss-free balance路由和sigmoid gate机制,选择“瘦高”模型结构,增加模型深度,采用partal RoPE的分组查询注意力,将注意力头数量增加到一般模型的2.5倍。使用Muon优化器加快模型收敛速度,引入QK-Norm技术提升注意力logit的数值稳定性,加入MTP层用于推理阶段实现推测解码,提升推理效率。在训练阶段,GLM-4.5首先在15T token的通用预训练语料库上训练,然后在7T token的代码和推理语料库上训练,之后引入中期训练提升在专有领域的性能,采用多阶段训练方案,并将序列长度从4K扩展至128K。预训练数据来源于网页、社交媒体、书籍、论文和代码仓库,针对不同来源设计优化处理流程,分两个阶段进行预训练,中期训练通过代码仓库级训练等三个环节,进一步增强推理能力和智能体能力。
实测展现强大编程能力
实测中,GLM-4.5展现出强大的编程能力。用其开发网页版Excel,虽过程中存在一些Bug,但通过不断优化提示词、强制选择最强模型、加强思考强度等方法,最终完成了接近3000行代码的高度可交互原型。整个过程最终消耗约600万token,按当前资源包价格算,成本大约4元,按非优惠输入token价格计算,约24元。GLM-4.5能一次性生成基础功能完整、界面美观、代码风格统一的产品雏形,但在处理复杂应用场景时,对模型的持续调试能力、上下文一致性认知要求较高,需要一些技巧来维持开发稳定性。
携手至像科技,开启“智能体+打印”新篇章
日前,作为智谱重要合作伙伴,至像科技将携手智谱把GLM-4.5引入智能打印终端、云打印平台及行业解决方案,开启“智能体+打印”融合落地的崭新篇章。至像科技产品部总经理张亦表示,GLM-4.5让大模型真正进入“好用”阶段,至像将把打印场景数据、硬件能力与前沿模型深度耦合,将“打印机”升级为“智能体终端”,为千行百业提供安全、高效、低成本的AI打印服务。
以上文章由 AI 总结生成