免费发布消息

OpenAI的GPT-5被曝技术未突破,基于GPT-4o打造未达业界预期

   2025-12-02 120
核心提示:近日有爆料称,自GPT-4o发布以来,OpenAI核心团队在两年半的时间里未开展针对下一代前沿模型的大规模预训练,导致GPT系列模型发

近日有爆料称,自GPT-4o发布以来,OpenAI核心团队在两年半的时间里未开展针对下一代前沿模型的大规模预训练,导致GPT系列模型发展遇瓶颈,今年8月推出的GPT-5技术根基未超越GPT-4o,性能未达业界预期。这一事件不仅引发了人们对GPT-5真实技术水平的质疑,也让行业预训练瓶颈问题浮出水面。


GPT-5被指“换皮”,预训练停滞不前

据媒体报道,自2024年5月GPT-4o发布后,OpenAI顶尖团队尚未完成一次针对下一代前沿模型的完整大规模预训练,在过去两年半中预训练规模没有实质性推进。今年8月,OpenAI CEO萨姆·奥尔特曼将GPT-5的发布定位为“博士级AI,通往AGI的重要里程碑”,然而该模型实际反响平淡,更接近于GPT-4.5的深度优化版本,未展现出颠覆性突破。目前GPT-5具体基于哪个GPT版本构建仍有待进一步验证。


预训练是大模型研发的“命门”

对AI模型而言,预训练如同建造高楼的“地基”,通过投喂海量数据让模型掌握基础语义、逻辑和知识框架,此环节消耗的算力占整个研发过程的90%以上。后续的监督微调(SFT)、强化学习(RLHF)等,类似给“毛坯房”做精装修,只能优化细节,无法改变建筑结构。从行业规律看,每次真正的代际突破都离不开预训练的革新,如GPT-3到GPT-4的飞跃,背后是预训练数据量与算力投入的大幅提升;meta的LLaMA-3性能跃升,也依赖大量GPU完成全新预训练。但GPT-5偏离了这一路径,原计划用于GPT-5的“Orion项目”因预训练不及预期已降级为GPT-4.5,最终推出的GPT-5更像是在此基础上做了参数调优和话术打磨。


GPT-5未达预期的根源

GPT-5未达预期,本质上是整个行业预训练瓶颈的集中爆发,OpenAI至少面临三重障碍。其一为数据“枯竭”危机,互联网上易获取的高质量数据已被反复挖掘,人工编写专业数据、开发合成数据效率极低,且过量使用AI生成的合成数据可能导致模型“认知闭环”等问题。其二是算力“黑洞”压力,预训练规模扩大使算力需求呈指数级增长,而OpenAI要实现GPT-5承诺的能力,需协调更多GPU资源,但当前全球H100显卡供不应求,其算力储备捉襟见肘。其三是团队“动荡”后遗症,去年的管理层风波和meta挖角,让OpenAI损失十多位核心研究员,团队动荡导致预训练方案反复调整,训练周期延长,且部分高级研究员对技术共享抵触,与微软的合作协调也分散了研发资源。


行业已开始探索新方向

GPT-5的争议给AI行业敲响了警钟,过去单纯追求规模的粗放式发展已逼近天花板。目前,头部厂商已开始转向新赛道。谷歌通过优化TPU芯片架构提升预训练效率;百度文心一言聚焦“知识增强”,不扩大预训练规模提升推理精度;meta押注开源生态,借助社区力量解决数据和算法难题。这些探索都指向AI的下一次突破或许在于“练得更巧”。


以上文章由 AI 总结生成

 
反对 0举报 0 收藏 0 打赏 0评论 0
 
更多>同类资讯
推荐图文
推荐资讯
点击排行