免费发布消息

Meta AI部门裁员后,田渊栋访谈揭秘AI研究与团队贡献

   2025-10-31 410
核心提示:近日,Meta首席执行官马克·扎克伯格批准AI部门约600人裁员计划,波及核心研发机构,时任Meta FAIR团队负责人田渊栋及其部分成员

近日,meta首席执行官马克·扎克伯格批准AI部门约600人裁员计划,波及核心研发机构,时任meta FAIR团队负责人田渊栋及其部分成员受影响。消息公布后,田渊栋首次公开露面,接受腾讯科技独家访谈,不仅为团队在大模型开发中的贡献正名,还解读了关于AI大模型“顿悟(Grokking)”的研究成果,并分享诸多核心观点。


meta AI部门裁员,田渊栋及团队受影响

meta首席执行官马克·扎克伯格近日批准一项涉及约600名员工的AI部门裁员计划,这是meta今年在人工智能领域规模最大的一次调整,主要波及公司核心研发机构。时任meta FAIR团队负责人的田渊栋在社交媒体X上证实:“我和我的部分团队成员也受到此次裁员影响” 。meta FAIR作为“超智能实验室”(MSL)科研体系中的核心支柱之一,田渊栋的离开引发业界广泛关注。


田渊栋访谈为团队正名

在此消息公布后,田渊栋接受腾讯科技特约作者「课代表立正」的独家深度访谈。面对行业中的质疑,田渊栋做出澄清:他的团队在meta大模型开发中做出大量贡献和重要工作。他表示,团队率先发现预训练模型设计中chunk attention等关键问题,并推动解决方案落地,提升long - context RL的稳定性,还在数据集生成和评测、RL基础设施构建和优化等方面有贡献。同时,针对大模型架构设计问题与公司侧多个团队深入沟通,尽管一开始沟通困难。


田渊栋解读AI大模型“顿悟(Grokking)”研究

访谈重心转向田渊栋近期研究成果,着重探讨AI大模型的“顿悟(Grokking)”。“Grokking”一词源自科幻作家罗伯特·海因莱因,指对事物本质的深刻理解。今年9月,田渊栋发表论文指出,Grokking不是神秘涌现,而是可计算的能量景观动力学(Energy Landscape)。其研究揭示AI学习核心突破,在群运算任务中,传统认为模型需穷举M²种组合才能学会规律,数据需求随M平方增长,而他以严格数学证明,模型仅需O(M log M)个样本即可实现泛化,近乎线性增长。以M = 1000为例,以往需百万级样本,新理论仅约7000个,为数据受限时代高效训练提供理论依据。


AI助力论文,田渊栋分享访谈核心观点

田渊栋在访谈中透露,AI对论文贡献很大,一些思考是与GPT - 5对话后产生的,他调侃这像self - play,需给GPT - 5一些insight和思考,它才会有不一样输出。本次访谈田渊栋还分享核心观点:Grokking揭示从记忆到泛化的数学机制,从记忆到泛化不是神秘涌现,而是优化动力学;表征学习是智能能力基础;Loss Function只是优化代理信号;黑盒Scaling强调堆参数等,短期高效,机制理解追求解释与结构,长期天花板更高;泛化本质是让模型学会“压缩”世界;真正理解有两个标准,当证据与归纳偏置相互强化到临界点,模型会“跨峰”进入泛化状态。


以上文章由 AI 总结生成

 
反对 0举报 0 收藏 0 打赏 0评论 0
 
更多>同类资讯
推荐图文
推荐资讯
点击排行