透过DeepSeek,聊聊存储是如何给AI加速的

发布者:EE小广播最新更新时间:2025-02-26 来源: EEWORLD关键字:存储  AI  数据中心  服务器 手机看文章 扫描二维码
随时随地手机看文章

从AI服务器到AI PC,如何快速的用上DeepSeek成为热门问题。无论DeepSeek Janus-Pro把多模态提升到了一个新层次,还是媲美主流的DeepSeek-V3,或者应用于本地的DeepSeek-V3,对存储都提出了新的需求。以完整未蒸馏的DeepSeek R1模型为例,这是一个拥有6710亿参数的混合专家(MoE)模型,未量化版本的文件体积高达720GB,而动态量化版本也达到150GB到400GB之间。

 

DeepSeek让GPU算力一下子得到了空前的释放,允许厂商将更多的资源集中到其它关键硬件中,比如更强大的并行能力,以及更优秀的存储方案。很显然,常规的存储方案已经不能很好的解决效率和存储的问题,在企业级和数据中心级SSD为AI提供存储支持时,以QLC和CXL为例的新技术也正在协助AI以更低成本和更高的效率运行。

 

 image.png?imageView2/2/w/1000

QLC与CXL:为AI铺路

 

由于DeepSeek不仅降低了计算成本,多模态处理能力、说是知识图谱和推理能力的优秀表现,使得厂商拥有足够的资源调用更多的数据。这使得原本大量的冷数据变成了温数据。温数据对存储有着更高的要求,需要相对HDD更快的传输速率,并且存储数据可能每年以EB级增长。这导致SSD的需求往大容量和低成本的方向发展。

 

其中QLC能够更好的在单位空间内提升存储容量,第八代BiCS FLASH™ 2Tb QLC的位密度比铠侠目前所采用的第五代BiCS FLASH™的QLC产品提高了约2.3倍,写入能效比提高了约70%。不仅如此,全新的QLC产品架构可在单个存储器封装中堆叠16个芯片,为业界提供领先的4TB容量,并采用更为紧凑的封装设计,尺寸仅为11.5 x 13.5 mm,高度为1.5 mm。

 

这意味着,未来采用第八代BiCS FLASH QLC的存储产品在存储空间拥有质的飞跃,可以轻松将企业级SSD和数据中心级SSD容量提升至120TB以上。

 

 image.png?imageView2/2/w/1000

 

密集的DeepSeek计算也意味着对内存有着海量的要求,但动辄数百GB的训练模型全部存储在内存中也意味着高昂的成本,如何利用BiCS FLASH™降低成本也是未来的思考方向。例如利用相变存储原理,基于BiCS FLASH™结构打造的XL-FLASH存储级内存(Storage Class Memory, SCM)与CXL相结合,开发相较内存功耗更低、位密度更高,相较闪存读取速度更快的存储器。这不仅会提高存储器利用效率,还有助于节能。

 

 image.png?imageView2/2/w/1000

 

CXL技术本身通常也意味着更先进的PCIe版本支持,铠侠则是积极响应PCIe升级的存储制造商之一。例如,铠侠率先推出支持PCIe® 5.0的企业级固态硬盘CM7系列。PCIe® 5.0 SSD与传统存储设备(如PCIe® 4.0 SSD)的对比测试,结果显示, CM7系列SSD在多个GPU并行访问时,能够提供91%的I/O吞吐量提升,此外,它的读取延迟比传统SSD低57%。同时,PCIe® 5.0 SSD能机器学习训练时间能够得到显著减少。以16个GPU并行处理为例,使用PCIe® 5.0 SSD可以减少32到44天的训练时间。

 

特别是在PCIe® 5.0与NVMe™规范下实现可靠的RAID兼容性和互操作性能。特别是生成式AI与检索增强生成 (RAG) 系统的重要性更胜以往,关系数据库PostgreSQL和向量数据库需求变得格外重要。例如通过Xinnor的RAID 解决方案的兼容性和互操作性测试,与采用相同硬件配置的软件 RAID 解决方案相比,在数据降级模式下执行PostgreSQL,效能更提升达25倍。

 

 image.png?imageView2/2/w/1000

抢先布局

 

任何前沿技术不可能一蹴而就,AI技术的积累更是如此。流畅体验的AI服务对数据传输速度有着很高的要求。在多年前,铠侠已经开始对AI展开布局,并致力于为人工智能的发展提供高性能的存储解决方案。

 

为了推动检索增强生成(RAG)扩展获得更好的性能支持,并进一步降低成本。铠侠在近期宣布开源AiSAQ™技术,这是一项专为SSD优化的新型“近似最近邻”搜索(ANNS)算法,跳过将索引数据载入内存(DRAM)的步骤,直接在SSD上执行检索操作,帮助企业/应用针对特定数据优化,从而实现帮助大语言模型(LLM)训练节省成本。

 

 image.png?imageView2/2/w/1000

 

利用高性能存储特性,铠侠在AI前沿进行了诸多尝试。包括通过Memory-Centric AI技术解决企业级SSD中图像分类任务中灾难性丢失问题,在神经网络不通过调整的前提下,在深度学习中快速获得图像特征辨别和标签添加。并在数年前与NVIDIA展开深度合作,从加速StyleGAN、NeRF等算法,到协助NVIDIA搭建Omniverse平台,包括搭建最新的物理AI开发平台NVIDIA Cosmos,为LLM训练整理自定义数据集的NVIDIA NeMo Curator。

 

 image.png?imageView2/2/w/1000

 

针对前瞻性存储,铠侠在近期还正式发布了全新XD8系列PCIe® 5.0 EDSFF(企业和数据中心标准型)E1.S固态硬盘。它是铠侠第三代E1.S固态硬盘,符合PCIe® 5.0(32 GT/s x 4)和NVMe™ 2.0规范,并支持开放计算项目(OCP)数据中心NVMe SSD v2.5规范。

 

铠侠XD8系列专为云和超大规模环境设计,满足数据中心对高性能、高效率和高可扩展性的日益增长的需求。通过这款新的固态硬盘,云服务提供商和超大规模企业能够优化基础设施,在保持运营效率的同时提供卓越的性能。

 

 image.png?imageView2/2/w/1000

 

让AI移动起来

 

DeepSeek另一个实现领域则是在移动平台。即便是春节假期,多个版本针对AI PC本地化AI部署的DeepSeek R1已经成型,例如蒸馏版本的7B和14B参数模型在笔记本和消费级台式机电脑上,可利用NPU和GPU实现离线运作,进一步确保了私有信息的安全。

 

对于AI PC而言,除了提供独立GPU或者NPU进行AI加速,大容量NVMe SSD也同等重要,另外还要考虑到有限的AI PC内部空间,固态硬盘需要同时兼顾性能与散热。以铠侠BG6系列为例,铠侠 BG6 系列在AI PC上能够展现卓越的性能和灵活性。采用 PCIe® 4.0 和 NVMe 1.4c 规范,搭载高达2,048GB存储空间。顺序读取速度最高可达 6,000 MB/s,随机读取速度更是高达 900,000 IOPS。这使得BG6系列成为紧凑型固态硬盘中的佼佼者,为用户提供了更快速、更高效的数据处理体验。

 

 image.png?imageView2/2/w/1000

 

另外BG6 系列提供了多种容量选择,包括 256GB、512GB、1,024GB 和 2,048GB,适用于不同用户需求。其采用 M.2 Type 2230 和 Type 2280 模组封装,可灵活应用于各类薄型设备,如超薄笔记本电脑、嵌入式设备。也给不同形态的AI PC部署本地AI提供了丰富的解决方案。

 

从数据中心、服务器,到个人计算机,铠侠为AI计算提供了丰富、高效的存储方案,并与合作伙伴展开深度合作,从软件和硬件层面入手,利用高性能固态硬盘的特性,为AI计算提供可靠的存储后盾,共同探索更多AI的可能性,充分利用AI与数据,创造更多价值。

关键字:存储  AI  数据中心  服务器 引用地址: 透过DeepSeek,聊聊存储是如何给AI加速的

上一篇:Arm 推出 GitHub Copilot 新扩展程序,助力快速迁移至 Arm 架构服务器
下一篇:Arm 与阿里巴巴合作,通过 KleidiAI 与通义千问模型的集成,加速端侧多模态 AI 体验

推荐阅读最新更新时间:2026-03-20 13:33

服务器/数据中心存储高级控制器是复杂存储设备的关键部件
这一类产品主要用于服务器和大数据(云)存储,通常需要提供硬盘框架来提供卓越的读写性能,比如说,可能需要RAID功能。NVME目前是这一市场比较热门的话题,该公司目前正在使用NVDIMM技术来推进JEDEC标准的制定。甚至有消息称,NVME正在尝试将Flash和DRAM集成。 很不幸的是,这一市场目前还被美国公司所垄断。台湾地区的制造商并不熟悉服务器行业,他们主要专注于PC周边市场和技术。另一个原因在于,台湾地区的服务器市场和数据中心业务并没有太大的发展空间。 同时,服务器领域还扩充到了光纤、存储控制和以太网等市场。这些新的存储控制结构都需要通信技术,而在这一领域,美国公司PMC和LSI是主要的参与者并处于领先地位。TI和M
[半导体设计/制造]
透过DeepSeek,聊聊存储是如何给AI加速的
从AI服务器到AI PC,如何快速的用上DeepSeek成为热门问题。 无论DeepSeek Janus-Pro把多模态提升到了一个新层次,还是媲美主流的DeepSeek-V3,或者应用于本地的DeepSeek-V3,对存储都提出了新的需求。以完整未蒸馏的DeepSeek R1模型为例,这是一个拥有6710亿参数的混合专家(MoE)模型,未量化版本的文件体积高达720GB,而动态量化版本也达到150GB到400GB之间。 DeepSeek让GPU算力一下子得到了空前的释放,允许厂商将更多的资源集中到其它关键硬件中,比如更强大的并行能力,以及更优秀的存储方案 。很显然,常规的存储方案已经不能很好的解决效率和存储的问题,在企业级
[网络通信]
透过<font color='red'>DeepSeek</font>,聊聊<font color='red'>存储</font>是如何给<font color='red'>AI</font>加速的
英飞凌推出12kW 高功率密度AI数据中心服务器电源(PSU)参考设计
【2025年9月10日, 德国慕尼黑讯】 英飞凌科技股份公司宣布推出一款适用于AI数据中心与服务器的12 kW高性能电源(PSU)参考设计 。该参考设计兼具高效率和高功率密度的优势,并采用了包含硅(Si)、碳化硅(SiC)和氮化镓(GaN)在内相关半导体材料,为工程师们提供了理想的解决方案,助力加速开发进程。 英飞凌12kW PSU参考设计 英飞凌高级副总裁兼电源开关部门总经理Richard Kunčič表示:“ 在AI对能源需求持续增长的当下,英飞凌的贡献在于提供具有极高转换效率的电源解决方案,助力节约每一度电。此次推出的 12 kW高密度PSU参考设计采用了先进的电源转换拓扑,同时结合 CoolMOS™、CoolS
[电源管理]
英飞凌推出12kW 高功率密度<font color='red'>AI</font><font color='red'>数据中心</font>与<font color='red'>服务器</font>电源(PSU)参考设计
AI时代,服务器存储如何升级?
一边是基于Darkmont的至强6+蓄势待发,另一边是基于Zen 6的EPYC Venice摩拳擦掌,海量GPU并行计算的AI服务器正在酝酿一轮全新的升级,以更高的密度、吞吐量和效能支持AI负载和新应用挑战。 无论是CXL与内存扩展技术的落地,还是PCIe 5.0和PCIe 6.0与AI数据密集型应用推动的本地高速存储,都将企业级固态硬盘推向了非常重要角色。 存储已经从系统的配套设施,变身成新平台性能释放的关键。 相对于HBM、GDDR和DRAM,企业级SSD优势在于弥补了数据供给速度与计算速度之间的巨大鸿沟,特别是全新的CPU、GPU在算力、核心数量、AI吞吐量井喷式的增长,以往的低速存储很容易造成计算单元空转,造成数据饥饿
[嵌入式]
<font color='red'>AI</font>时代,<font color='red'>服务器</font><font color='red'>存储</font>如何升级?
美光面向数据中心客户推出 DDR5 服务器 DRAM
美光面向数据中心客户推出 DDR5 服务器 DRAM,推动下一代服务器平台发展 全新 DDR5 服务器内存可最大限度地提高 AI、高性能计算和其他数据密集型应用及工作负载的性能 关键优势: • 随着 CPU 内核数量不断增加,改进后的内存架构相比 DDR4 可将带宽提高近一倍,进而提高效率 • JEDEC 速度提高至 4800MT/s ,比 DDR4 快 1.5 倍 • 得益于高达 64GB 的模组容量,能够支持内存密集型工作负载 • DDR5 的创新架构改进和模组内建电源管理功能,有助于优化系统整体运行性能 2022 年 7 月 7 日,上海 — 内存和存储解决方案领先供应商 Micron
[嵌入式]
华为涪陵云计算大数据中心运营,具10000台服务器运营能力
8月8日,华为涪陵云计算大数据中心正式投入运营。 2016年11月7日,重庆涪陵区政府和华为公司签署云计算战略合作协议,双方就共建云计算数据中心、智能制造、智慧物流等领域达成全方位战略合作。 据重庆日报报道,此次正式投入运营的华为涪陵云计算大数据中心是按照国际T3+标准建设的,占地面积30亩。目前,该中心已投运的一期项目部署1059个机柜,具备10000台服务器运营能力,并拥有安全可靠的运行环境和专业运维体系。 目前,华为涪陵云计算大数据中心基于华为云数字平台,已支撑了涪陵区40多个企业及机关事业单位、70多项业务系统上云。 未来,华为涪陵云计算大数据中心还将承载涪陵及各地重点企业、政府业务,在教育、智慧应急、智慧农业等方面发
[手机便携]
高通计划放弃开发数据中心服务器芯片 与中美贸易战有关?
  相关人士称, 高通 公司准备放弃为数据中心服务器开发处理器的努力。 高通 曾想打破英特尔公司在这一利润丰厚市场的主导地位。其还表示, 高通 正在研究是关闭这一部门,还是为它找一个新东家。下面就随嵌入式小编一起来了解一下相关内容吧。   众所周知,4月16日,美国商务部宣布激活拒绝令,禁止美国企业向中兴通讯销售一切产品,时间长达7年,禁令立即生效。其后美国又相继对华为等中国高新科技企业进行制裁,其中包括禁止华为进入美国市场,禁止美国科技企业向我国高新科技企业出售芯片等一系列制裁,此事对中国和美国科技企业带来了莫大的损失。尽管近日,中美就贸易战问题进行了洽谈,但目前为止并未透露任何细节,此次高通放弃数据中心服务器开发处理器或许
[嵌入式]
ST发布多相数字控制器,提高服务器数据中心的输电能效
eeworld网消息,中国,2017年3月31日 —— 现在的服务器和数据中心设备都采用最新的低电压、大电流微处理器以及ASIC和现场编程器件,意法半导体的新降压控制器PM6773 和 PM6776满足这些应用对电能输送的更精确和更高能效的需求。这两款新IC是为英特尔Intel Skylake CPU和DDR4内存条专门设计,是意法半导体的Intel VR13平台数字降压控制器产品家族的最新产品。  这两款VR13串行电压识别(SVID)协议兼容IC是12V输入电压、双通道、多相3+1 (PM6773)和6+1 (PM6776)降压控制器,通过PMBus™协议可以设置参数,内置非易失性存储器(NVM)有于存储配置数据。PMBus通
[半导体设计/制造]
小广播
最新网络通信文章
厂商技术中心

 
EEWorld订阅号

 
EEWorld服务号

 
汽车开发圈

 
机器人开发圈

About Us 关于我们 客户服务 联系方式 器件索引 网站地图 最新更新 手机版

站点相关: 综合资讯 其他技术 下一代网络 短距离无线 基站与设施 RF技术 光通讯 标准与协议 物联网与云计算 有线宽带

索引文件: 1 

词云: 1 2 3 4 5 6 7 8 9 10

北京市海淀区中关村大街18号B座15层1530室 电话:(010)82350740 邮编:100190

电子工程世界版权所有 京ICP证060456号 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2026 EEWORLD.com.cn, Inc. All rights reserved