免费发布消息

零一万物CEO李开复:DeepSeek推动中国AI开源生态形成,助力缩小中美差距

   2025-09-28 230
核心提示:2025年9月27日,零一万物CEO李开复在长江CEO组织20周年返校日庆典上发表重要观点,指出DeepSeek推动中国AI开源生态形成,有望助

2025年9月27日,零一万物CEO李开复在长江CEO组织20周年返校日庆典上发表重要观点,指出DeepSeek推动中国AI开源生态形成,有望助力中国在AI领域缩小与美国差距,且李开复此前就多次表达对大模型开源的支持,并阐述相关行业发展趋势。


李开复谈DeepSeek对中国AI发展的核心贡献

零一万物CEO李开复在9月27日长江CEO组织20周年返校日庆典上明确表示,“如果十年后,我们回顾DeepSeek怎么让中国没有落后于美国,答案并非其技术能力本身,而是它带来了中国(大模型)开源时代。”他认为DeepSeek对中国AI发展的核心贡献在于推动了开源生态的形成。自DeepSeek开源以来,国内多家企业相继开源大模型,形成了“既开源、又比拼速度”的良性竞争局面。


开源模式对中国AI发展的意义

李开复提到,开源模式高度契合中国企业的学习特性,有望助力中国在AI领域缩小与美国的差距。这种模式不仅促进了国内大模型技术的快速发展,也使得中国企业在AI领域的竞争力得到提升,为追赶美国提供了一条可行路径。


李开复此前对大模型开源的观点

IT之家注意到,李开复此前曾多次力挺大模型开源。今年3月,他在中关村论坛人工智能日上表示,“DeepSeek的成功证明闭源是一条死路,开源才会有更大的发展。”他认为,随着AI的Scaling Law法则从预训练端转移到推理端上,AI模型、AI应用会在今年迎来新的加速爆发,今年的一个行业口号应该是“Make AI Work”(让AI变得有用)。


超大预训练模型价值的变化

李开复表示,随着Scaling Law的放缓,超大预训练模型的直接商业价值在逐步降低。他给出四个理由:一是数据不足导致传统预训练将终结;二是超大GPU群效率降低,容错问题等导致边际效应降低;三是超大预训练模型价格昂贵,速度缓慢;四是新推理Scaling Law将带来更高回报。超大预训练模型的价值正在转移,将进一步体现在“教师模型”的角色中,其本质也将更趋近于大模型时代的基础设施,旧学习范式是人教AI,新学习范式是AI教AI。


以上文章由 AI 总结生成

 
反对 0举报 0 收藏 0 打赏 0评论 0
 
更多>同类资讯
推荐图文
推荐资讯
点击排行