7月9日凌晨,Hugging Face开源顶级小参数模型SmolLM3,尽管仅有30亿参数,却在性能上超越同类模型,还具备128k上下文窗口与双推理模式,支持6种语言,为小参数模型领域带来新突破。
SmolLM3开源,性能超越同类模型
今日凌晨,全球著名大模型开放平台Hugging Face开源了顶级小参数模型SmolLM3。该模型虽仅有30亿参数,性能却大幅超过Llama-3.2-3B、Qwen2.5-3B等同类开源模型,展现出卓越的实力。
128k上下文窗口与多语言支持
SmolLM3拥有128k上下文窗口,为用户提供了更为广阔的处理空间。同时,它支持英语、法语、西班牙语、德语等6种语言,满足不同语言背景用户的需求。
双推理模式,用户灵活切换
SmolLM3支持深度思考和非思考双推理模式,用户能够根据自身需求灵活切换,这种灵活性进一步提升了模型的实用性与适应性。
以上文章由 AI 总结生成