德国AI咨询公司TNG推出的“DeepSeek R1T2”模型近日走红,其在速度和性能上表现出色,在智能与输出token长度间寻得平衡,虽存在一定局限但仍备受关注。该模型融合多个官方模型并采用专家组合技术开发,目前已开源并在Hugging Face开放权重。
“DeepSeek R1T2”模型的性能表现
“DeepSeek R1T2”模型速度优势明显,比DeepSeek官方的R1 - 0528快200%,比R1快20%。在性能方面,其在GPQA Diamond(专家级推理能力问答基准)和AIME 24(数学推理基准)上的表现优于R1,但未达到R1 - 0528的水平。
“DeepSeek R1T2”模型的技术构成
此模型采用专家组合(Assembly of Experts,AoE)技术开发,融合了DeepSeek官方的V3、R1和R1 - 0528三大模型。它是基于DeepSeek - MoE Transformer架构的大语言模型,参数规模为671B,从初代双基模型架构升级到三心智融合架构,新增基模型R1 - 0528,并利用较高精度的直接脑区编辑实现AoE技术构建。
“DeepSeek R1T2”模型的优势对比
与DeepSeek R1对比,R1T2有望成为理想替代品,性能更佳且几乎可通用;与R1 - 0528对比,若无需最高智能,R1T2更经济;与R1T对比,通常建议使用R1T2,除非特定情况;与DeepSeek V3 - 0324对比,若需推理能力,R1T2是首选,V3则速度更快。
“DeepSeek R1T2”模型的局限性
R1 - 0528虽推理耗时更长,但在高难度基准测试中仍优于R1T2;经SpeechMap.ai测评,R1T2应答克制度显著高于R1T,但低于R1 - 0528;暂不支持函数调用,受R1基模型影响,现阶段不推荐函数调用密集型场景;基准测试变更,开发版由AIME24 + MT - Bench变更为AIME24/25 + GPQA - Diamond测评体系,新体系下R1与初代R1T的分差较早期公布数据更大。
“DeepSeek R1T2”模型的开源情况与大众看法
“DeepSeek R1T2”模型遵循MIT协议开源,并在Hugging Face上开放了权重,地址为https://huggingface.co/tngtech/DeepSeek - TNG - R1T2 - Chimera 。在评论区,有人误以为其出自DeepSeek官方,更多人认可该模型在智能与输出token长度间找到最佳平衡点且提升了速度,并对其在现实世界的表现充满期待。