算法冲破算力瓶颈 DeepSeek继续开源 推动AI普及与发展【热搜】_今日新闻_微材之窗网
推广 热搜: 广州  SEO  贷款  深圳    网站建设  医院  摩托车  机器人  用户体验 

算法冲破算力瓶颈 DeepSeek继续开源 推动AI普及与发展【热搜】

   日期:2025-02-25 22:55:11     来源:互联网    作者:微材之窗网    浏览:3    
核心提示:2月24日和25日,DeepSeek先后宣布开源了FlashMLA代码和DeepEP通信库,致力于推动大模型的开源化进程。DeepSeek-R1模型的问世与开源为大模型行业带来了新的希望,特别是在算力瓶颈方面

2月24日和25日,DeepSeek先后宣布开源了FlashMLA代码和DeepEP通信库,致力于推动大模型的开源化进程。DeepSeek-R1模型的问世与开源为大模型行业带来了新的希望,特别是在算力瓶颈方面。与其他厂商不同,DeepSeek不仅追求算力叠加,还通过算法创新解决了困扰行业的算力问题。

算法冲破算力瓶颈 DeepSeek继续开源

受DeepSeek影响,国内算力产业格局发生变化,AI服务器出货量激增,能支持DeepSeek大模型应用的一体机也变得非常受欢迎,各大厂商纷纷布局,形成了竞争激烈的市场态势。

自DeepSeek-R1 671B模型开源一个月后,DeepSeek启动了“Open Source Week”,计划在一周内开源五个代码库。2月24日,DeepSeek开源了FlashMLA代码。这是一个MoE训练加速框架,通过低秩矩阵压缩KV缓存显著减少内存占用和计算开销,支持千亿参数模型的高效训练。浪潮信息相关负责人表示,相比主流的MHA和GQA算法,FlashMLA在不降低计算精度的情况下大幅减少了推理时的KV缓存占用,提升了推理效率。

FlashMLA专为英伟达Hopper GPU设计,优化了可变长度序列处理,实现了接近H800理论峰值的性能。通过FlashMLA,用户可以将H800的性能提升到H100的水平,同时降低了大模型部署成本,推动了大模型在各行业的落地。此外,FlashMLA的开源为国产GPU兼容CUDA生态提供了参考模板,促进了多厂商竞争格局的发展。

紧接着,2月25日,DeepSeek又宣布开源了DeepEP通信库。这是第一个用于MoE模型训练和推理的开源EP通信库,支持低精度运算如FP8格式。DeepEP通过优化All-to-All通信和支持NVlink/RDMA协议,实现节点内外高效数据传输,降低训练和推理延迟。通过灵活的GPU资源调度,DeepEP在通信过程中并行执行计算任务,显著提升整体效率。

 
免责声明:以上所展示的信息由网友自行发布,内容的真实性、准确性和合法性由发布者负责。 微材之窗网对此不承担任何保证责任, 微材之窗网仅提供信息存储空间服务。任何单位或个人如对以上内容有权利主张(包括但不限于侵犯著作权、商业信誉等),请与我们联系并出示相关证据,我们将按国家相关法规即时移除。

本文地址:http://news.gzbj58.com/311627.html

打赏
 
更多>同类资讯

推荐图文
推荐资讯
点击排行

网站首页  |  付款方式  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  RSS订阅  |  粤ICP备11090451号
免责声明:本站所有信息均来自互联网搜集,产品相关信息的真实性准确性均由发布单位及个人负责,请大家仔细辨认!并不代表本站观点,微材之窗网对此不承担任何相关法律责任!如有信息侵犯了您的权益,请告知,本站将立刻删除。
友情提示:买产品需谨慎
网站资讯与建议:wfzcw@qq.com