当前位置:首页 > DeepSeek技术交流 > 正文内容

DeepSeek-R1 再进化,这次的更新好强啊

5个月前 (06-04)DeepSeek技术交流475

R2没等到,但 DeepSeek R1 小升级据说也很强?

又被 DeepSeek 偷袭了!

业内苦等的 R2 模型迟迟未到,结果 DeepSeek 却悄然出手:

DeepSeek R1 摇身一变,成了 DeepSeek-R1-0528!

依然是开源、依然赶在节前,这次的更新不改大版本号,只低调地加上日期,延续了 DeepSeek 一贯的命名套路,就像两个月前的DeepSeek-V3-0324。

别看名字没变,这波 R1 版本的升级可不简单,特别是在“复杂推理”“前端开发”“幻觉降低”等方向,带来了实打实的进化。

这次的 DeepSeek-R1-0528 还是沿用了 2024 年 12 月发布的 DeepSeek V3 Base 模型,只不过这次后台“砸”了更多算力,让它能像人一样多想一步、再多想一步。

打个比方,用“tokens”来衡量它的“思考量”:

同样是做 AIME 2025 测试,旧版 R1 平均每题只要 12K tokens 就交卷,新版 R1-0528 则要跑到 23K tokens 才满意。

也就是说,DeepSeek-R1-0528 会把题目拆得更细、更透。

思考用料足了,答案自然更准:准确率从原来的 70% 一口气飙到了 87.5%。

有网友实测,新版 R1-0528 连续思考一个复杂问题能跑上 25 分钟。

似乎为了提升模型的深度思考能力,DeepSeek-R1-0528 有意拉长了大模型的思考时长。

经典物理模拟测试中,DeepSeek-R1 新旧版本的对比

不过到底值不值,还得看你怎么用:

毕竟一个问题花上半小时,即便结果再完美,也难免等得心痒痒。

但相应地,思考更深了,编程和推理能力也就跟上来了。

在 LiveCodeBench 基准测试里,DeepSeek-R1-0528 的成绩已经能和 o3-mini(High)和 o4-mini(Medium)相媲美,甚至在某些场景下超越了 Gemini 2.5 Flash。

为了测试新版 R1-0528 在物理世界的推理能力,有网友拿同一句提示,让它们生成一个页面:R1-0528 一次性输出了 728 行代码,而 Claude 4 Sonnet 只给出了 542 行。

老狐仔细对比后发现,新版 R1-0528 在细节处理上更精致,无论是橙色球表面的光影反射,还是砖块墙被破坏后的不规则倒塌,都稳赢 Claude 4 Sonnet。

而在数学推理方面,不少网友提到,DeepSeek-R1-0528 是目前唯一一个能持续稳定地正确回答“ 9.9 - 9.11 等于多少?”的模型。

不仅如此,有网友让 DeepSeek-R1-0528 搭建一个单词评分系统,结果只用一次提示就能生成前后端文件,直接跑起来、根本不用调试。

要知道,之前只有 Open AI 的 o3 模型能做到这么稳定的输出,现在新版 R1-0528 也成功追了上来,成了第二个达到这种水平的模型。

看完这些测试,老狐对官方的说法更加信服:

DeepSeek-R1-0528 在数学、编程和通用逻辑等多个测评中,不仅稳坐国内领先的位置,还紧追国际顶尖模型 o3 和 Gemini 2.5 Pro 的表现。

对于 AI 模型来说,编程和推理能力固然是核心,但像 Chat GPT 和 Gemini 这样的国外模型,面对中文的复杂语境,有时会显得“水土不服”。

相比之下,DeepSeek 作为本土 AI,这次更新在语言对话方面下足了功夫,更贴合咱们国人用户的需求。

先说 AI 的老毛病:“幻觉”,用户苦 AI 幻觉久矣,DeepSeek-R1-0528 在这方面进步不小。

以前,旧版 R1 在改写润色、总结摘要、阅读理解时,总爱“脑补”些不靠谱的内容。

新版 R1-0528 则稳了不少,幻觉率直接降低了 45%~50%,输出内容靠谱多了,不用担心它“瞎编”了。

而在创意写作方面,DeepSeek-R1-0528 的表现也更上一层楼了。

相比旧版 R1 常见的“卡壳”现象,用新版 R1-0528 输出论文、小说、散文时,基本都能一气呵成,不仅逻辑顺畅,情节也很自然,再也不用大删大改了。

有一说一,看完 DeepSeek-R1-0528 写的小说,老狐的心情那叫一个复杂。

大模型越来越卷,这写作水平真让人瑟瑟发抖,难道连写小说的饭碗也要被抢了?

总的来说,这次更新,DeepSeek 还是一如既往地“低调内卷”。

表面看似只是个小升级,但掰开了看,每个细节都是硬活儿。

不管是和旧版 R1 比,还是和别家大模型比,DeepSeek-R1-0528 的表现都非常能打。

当然,也不是所有人都买账。也有网友吐槽这次更新“雷声大雨点小”,觉得 DeepSeek-R1-0528 还是有点“名不副实”。

不过,更多人还是抱着期待的态度。作为国产 AI 的代表,网友们更希望 DeepSeek 能越做越强,真正撑起“国产之光”的牌面!

老狐倒觉得,就算不谈技术硬核,不提民族情怀,这次 DeepSeek R1 的更新依然值得点赞。

毕竟,AI 的终极意义,不就是让每个普通人都能更轻松地触摸星辰大海吗?

本文来自微信公众号“科技狐”(ID:kejihutv),作者:老狐,36氪经授权发布。


“DeepSeek-R1 再进化,这次的更新好强啊” 的相关文章

【DeepSeek谈艺】于来·油画 | 厚土之上的文化共生与当代转译

【DeepSeek谈艺】于来·油画 | 厚土之上的文化共生与当代转译

新春以来,DeepSeek成为各个行业所聚焦的热点话题。这个融合了人工智能与大数据分析的前沿平台,正逐步揭开其神秘面纱,展现出对各行各业颠覆性的潜力。随着DeepSeek技术的不断成熟与普及,我们正站...

DeepSeek 本地安装指南(电脑版完整版)

DeepSeek 本地安装指南(电脑版完整版)

在当今数字化时代,人工智能技术蓬勃发展,大语言模型如 DeepSeek 展现出了强大的能力,能够为我们在工作、学习等诸多场景提供高效的帮助。对于一些对数据隐私有较高要求,或者希望在...

如何选出银行股里的优等生,我们问了问DeepSeek

如何选出银行股里的优等生,我们问了问DeepSeek

如何选出银行股里的优等生,我们问了问DeepSeek《投资者网》崔悦晨当 DeepSeek-R1 以其强大的信息整合与洞察能力风靡全网,成为企业与个人的“智能外脑”时,《投资者网》也按捺不住好奇:在&...

黄厚江:DeepSeek在语文教学备课中的运用

黄厚江:DeepSeek在语文教学备课中的运用

黄厚江:男,1958年出生,江苏盐城人,基础教育首批国家教学名师,全国中语会理事、学术委员会副主任、教师发展中心副主任,全国优秀语文教师,江苏省语文特级教师,江苏省首批教授级中学高级教师,苏州大学硕士...

指出错误可领千元奖励?Deepseek用户遇“虚假赔偿承诺”|封面头条

指出错误可领千元奖励?Deepseek用户遇“虚假赔偿承诺”|封面头条

指出错误可领千元奖励?Deepseek用户遇“虚假赔偿承诺”|封面头条封面新闻记者 杨旭斌当你指出AI生成的内容有错误时,得到的不仅是简单的道歉,还有可能收到令你意外的回应:“因为你的指正帮助系统修补...

DeepSeek与ChatGPT强强联合,让你的科研效率直接提升10倍

DeepSeek与ChatGPT强强联合,让你的科研效率直接提升10倍

我给大家推荐报名由中小企业合作发展促进中心联合中科软研组织的一系列高质量培训课程,需要的粉丝可以来抄作业了~之前也分享过中科软研的科研培训,亲身体会过确实不错才给大家推荐,大家可以自己去体验一下,非常...