DeepSeek低调发布R1模型“小版本试升级”,编码能力提升引关注

AI2周前发布 小强
1 00

5月28日,在官方微信群低调发布,宣布完成R1模型的“小版本试升级”。虽官方未详细披露更新内容,但网友测评显示,此次升级效果显著,R1编码能力大幅提升,推理时间变长,性能可媲美最新的o3模型高版本,引发科技圈热议。此前关于推出R2大模型的传言未成真,此次R1升级或取而代之。对此,业内人士建议理性看待,期待权威测评。

DeepSeek低调发布R1“小版本试升级”
5月28日,DeepSeek在官方微信群发布消息称,DeepSeek R1模型已完成“小版本试升级”,并欢迎用户前往官方网页、APP、小程序测试(打开深度思考),API接口和使用方式保持不变。然而,澎湃新闻记者查询官方网站等平台,并未发现有关此次更新的详细信息。记者咨询DeepSeek内部人士,得到的回复亦是“小升级”。从宣传来看,此次升级十分低调,但其实际效果却远超“小升级”范畴。

网友测评:R1升级效果显著
根据网友测评,此次R1升级效果令人惊喜。新模型基于训练(参数为660B),在LiveCodeBench基准上,-0528性能几乎与o3-mini(High)和o4-mini(Medium)实力相当,一举超越了 2.5 Flash。科技类网站“开放社区”评论称,在著名代码测试平台Live CodeBench中,其性能可媲美OpenAI最新的o3模型高版本。也有网友对新版R1的风格进行测试,发现几乎和OpenAI的o3差不多。此外,网友最为关注的是此次DeepSeek R1更新后的思考时间变长,单任务处理时长可达30 - 60分钟。还有网友通过实验对比了-4-Sonnet与DeepSeek-R1-0528的实际表现,结果显示DeepSeek-R1生成的代码在模拟物理碰撞方面表现更好。

R2传言未成真,R1升级或取而代之
此前有传言称,深度求索可能将在5月推出下一代大模型DeepSeek-R2,且该模型将会采用一种更先进的混合专家模型(MoE),结合更加智能的门控网络层(Gating Network)以优化高负载推理任务的性能。不过,当时有内部人士向记者坦言,该传言真实度不高。从目前情况分析,DeepSeek或许将用此次R1版本的升级,取代R2版本的推出。

业内人士建议理性看待,期待权威测评
尽管网友评测得出的结论十分惊喜,但也有业内人士向记者表示,建议理性客观看待此次升级,也期待更为权威的测评结果。此次DeepSeek R1的升级虽引发广泛关注,但在缺乏权威测评的情况下,需保持理性态度,以全面、准确地评估其实际价值与影响。

© 版权声明

相关文章

暂无评论

none
暂无评论...