当前位置:首页 > Deepseek最新资讯 > 正文内容

DeepSeek发布开源周首个成果 可优化英伟达GPU效率

5个月前 (02-25)Deepseek最新资讯259

新京报贝壳财经讯(记者罗亦丹)北京时间2月24日上午,DeepSeek发布了其“开源周”的第一项成果:FlashMLA(直译为快速多头潜在注意力机制)的代码。

据了解,MLA(多头潜在注意力机制)正是DeepSeek降低大模型成本使用的关键技术之一,其可以显著减少大模型训练和推理过程中的内存占用,而FlashMLA则是针对Hopper GPU(一种英伟达GPU架构)开发的高效MLA解码内核,其针对可变长度序列进行了优化,目前已投入了生产,其可以使得H800达到3000GB/s内存,实现580TFLOPS(每秒浮点运算次数)计算性能。

贝壳财经记者注意到,根据此前DeepSeek发布V3大模型时公开的技术文档,该大模型正是使用英伟达的H800芯片训练而成。

上海骊翰科技咨询有限公司发文称,FlashMLA能在不损失模型性能的前提下,将缓存体积压缩至原来的1/4,从而大幅降低显存需求。例如,原始需要存储的100GB中间结果,压缩后仅需25GB,通过开源让企业可以直接使用FlashMLA来优化自家模型。随着FlashMLA的普及,AI推理有望进入千元级硬件跑百亿模型的时代。


“DeepSeek发布开源周首个成果 可优化英伟达GPU效率” 的相关文章

DeepSeek开源新模型,数学推理能力大提升

DeepSeek开源新模型,数学推理能力大提升

赶在五一假期前夕,DeepSeek给我们送出一份惊喜大礼。延续一贯的开源节奏,DeepSeek在Hugging Face正式发布DeepSeek-Prover-V2,并同步上线模型卡及示例代码。此次共...

新书来了 │ DeepSeek+万物=王炸,打工人效率如何翻倍?这4本书给你答案

新书来了 │ DeepSeek+万物=王炸,打工人效率如何翻倍?这4本书给你答案

2025年伊始,DeepSeek以数字笔墨掀起惊澜,也呈现了人工智能时代一个深刻的命题:当技术无限逼近人类自身能力的时候,是否会替代人类?很多话题的探讨甚至引发对社会安全稳定和伦理问题的担忧。AI看似...

中国石油大学(华东)“i石大”版满血DeepSeek正式上线

中国石油大学(华东)“i石大”版满血DeepSeek正式上线

2月26日,中国石油大学(华东)宣布,属于石大人自己的“i石大”版满血DeepSeek大模型——AI智能助手正式上线。石大师生可通过学校微信企业号或直接点击PC端链接进入使用,随时随地体验DeepSe...

DeepSeek R2没等来,R1“小升级”发布:思考时间更长,效果如何?

DeepSeek R2没等来,R1“小升级”发布:思考时间更长,效果如何?

DeepSeek低调升级,引发科技圈热议。5月28日,DeepSeek 在官方微信群发布消息称,DeepSeek R1模型已完成“小版本试升级”,欢迎前往官方网页、APP、小程序测试(打开深度思考),...

“快抄”接入DeepSeek,酷卡科技探索汽车营销智能化新路径

“快抄”接入DeepSeek,酷卡科技探索汽车营销智能化新路径

汽车营销的智能化并非简单地将通用AI工具照搬照用,而是需要构建技术与业务深度融合的全新生态。视觉中国供图中国青年报客户端讯(中青报•中青网记者 张真齐)近日,酷卡科技在汽车营销智能化领域迈出了关键一步...

从DeepSeek-R1看AI国产化的全球突围

从DeepSeek-R1看AI国产化的全球突围

近期,中国初创公司深度求索(DeepSeek)推出的大模型DeepSeek-R1引发全球关注。这款完全基于国产技术研发的AI产品,不仅在自然语言处理、多模态交互等领域展现出不逊于国际顶尖模型的性能,更...