英特尔Gaudi 2D AI加速器为DeepSeek Janus Pro模型提供加速

发布者:EE小广播最新更新时间:2025-02-05 来源: EEWORLD关键字:英特尔  Gaudi  AI  加速器 手机看文章 扫描二维码
随时随地手机看文章

近日,DeepSeek发布Janus Pro模型,其超强性能和高精度引起业界关注。英特尔® Gaudi 2D AI加速器现已针对该模型进行优化,这使得AI开发者能够以更低成本、更高效率实现复杂任务的部署与优化,有效满足行业应用对于推理算力的需求,为AI应用的落地和规模化发展提供强有力的支持。

 

 image.png?imageView2/2/w/1000

作为一款创新性的 AIGC模型,DeepSeek Janus模型集成了多模态理解和生成功能。该模型首次采用统一的Transformer架构,突破了传统AIGC模型依赖多路径视觉编码的限制,实现了理解与生成任务的一体化支持。在此基础上,Janus Pro通过优化训练策略和扩展模型规模,显著提升了文生图等功能的性能与稳定性,并提供了10亿参数和70亿参数两个版本,在性能与精度上展现了较强的竞争力。

 

image.png?imageView2/2/w/1000

 

在Janus Pro统一的Transformer架构下,文生图模型的吞吐量高低已经从依赖加速器的高算力向充分利用HBM内存高带宽和大容量转换。英特尔® Gaudi 2D凭借 2.45TB/秒的高带宽和 96GB HBM 大容量内存,为 Janus Pro 模型提供了强大的计算支持,使其在生图批处理任务中,随着批量大小(Batch Size)的增加,吞吐性能得到显著提升,大幅缩短任务处理时间。

 

与此同时,结合英特尔Optimum-Habana 框架的优化,英特尔® Gaudi 2D显著提升了文生图任务的吞吐性能和推理效率,仅需约 10 秒即可生成16张高质量的图片,性能表现卓越。而且,开发者仅需调整数行代码,即可实现这一结果,极大降低了开发门槛和迁移成本,为 AI 应用的高效部署提供便利。

 

image.png?imageView2/2/w/1000

 此外,DeepSeek的蒸馏模型在至强和Gaudi平台上也得到了支持,能够为客户创造更好的总体拥有成本(TCO),推动AI的普惠。

 

一直以来,英特尔始终秉承开放的态度,并通过软硬件相结合的方式推动AI应用落地。目前,英特尔丰富的AI产品组合,包括英特尔®至强®处理器、英特尔®酷睿™ Ultra处理器和英特尔锐炫™显卡等,已经针对业界超过500个开源AI模型提供支持,广泛涵盖DeepSeek、Llama 3.1和通义千问等。同时,英特尔深耕开放生态,不仅以开放生态系统软件实现针对性优化,也通过打造企业AI开放平台(OPEA)为这些模型提供支持。

 

关键字:英特尔  Gaudi  AI  加速器 引用地址:英特尔Gaudi 2D AI加速器为DeepSeek Janus Pro模型提供加速

上一篇:欧盟提议成立高级研究机构:专注于AI等战略技术以加强竞争力
下一篇:英特尔与日本AIST合作开发下一代量子计算机:万级量子比特

推荐阅读最新更新时间:2026-03-25 13:54

不联网也能在车上玩AI英特尔解锁DeepSeek本地运行“超能力”
超火的DeepSeek进入驾舱是什么样子?英特尔告诉你答案。在英特尔的软件定义汽车车载平台上跑DeepSeek-R1,从1.5B直到14B,能明显提升GPU内存的利用率,而第二代英特尔锐炫™ B系列车载独立显卡的发布,更是将能支持的模型参数推至32B。当下经典的AI驾舱应用,比如,驾驶员与AI助手讨论明天的行程,关于沿途各种地标的语音交互,乃至于如语音调节温度、问询操作指引等经典应用场景,由于DeepSeek的到来,会变得更具AI的灵性。 左为英特尔AI增强型软件定义车载SoC,右为英特尔锐炫™车载独立显卡 硬件与软件的协同是推动出行体验升级的关键动力。在英特尔的支持下,DeepSeek很快就将有机会上车部
[汽车电子]
不联网也能在车上玩<font color='red'>AI</font>?<font color='red'>英特尔</font>解锁<font color='red'>DeepSeek</font>本地运行“超能力”
英特尔全新Gaudi2处理器面世中国市场,加速大规模深度学习训练与推理
2023年7月11日,北京 —— 今日, 英特尔AI产品战略暨Gaudi2新品发布会在京举行。会上,英特尔正式于中国市场推出第二代Gaudi深度学习加速器——Habana® Gaudi®2 。作为英特尔从云到端产品组合的重要组成,Gaudi2致力于以领先的性价比优势,加速AI训练及推理,为中国用户提供更高的深度学习性能和效率,从而成为大规模部署AI的更优解。 英特尔于中国市场推出Gaudi2深度学习加速器 英特尔执行副总裁兼数据中心与人工智能事业部总经理Sandra Rivera指出,“英特尔致力于通过为客户提供广泛的硬件选择,并支持开放的软件环境,加速人工智能技术的发展。凭借包括至强可扩展处理器和Gaudi2深度学习
[网络通信]
<font color='red'>英特尔</font>全新<font color='red'>Gaudi</font>2处理器面世中国市场,加速大规模深度学习训练与推理
BittWare发布配备Intel® Agilex™ M系列和I系列的PCIe 5.0/CXL FPGA加速器
BittWare发布配备Intel® Agilex™ M系列和I系列的PCIe 5.0/CXL FPGA加速器,推动内存和互连性改进,并且降低风险 • BittWare加入Intel的Agilex M系列早期使用计划,以推动开发用于内存密集型应用的FPGA解决方案 • BittWare新添两种全新的Intel Agilex I系列 SmartNIC加速器,打造最广泛的Intel基于FPGA加速器的企业级产品组合 • 与Intel进行数十年的合作,使客户可随时获取高性能计算、计算存储、网络和传感器处理领域的的成熟产品 新罕布什尔州康科德 - 2022年8月3日 - Molex莫仕旗下的子公司BittWare是用于边缘
[嵌入式]
BittWare发布配备<font color='red'>Intel</font>® Agilex™ M系列和I系列的PCIe 5.0/CXL FPGA<font color='red'>加速器</font>
Altera宣布基于FPGA的加速器支持Intel前端总线
XtremeData基于FPGA的模块增强了Intel Xeon服务器的计算能力,大大降低功耗 (英特尔信息技术峰会)—北京,2007年4月19号 ——Altera (NASDAQ: ALTR)公司今天宣布,XtremeData在其XD2000i可插入式FPGA协处理器模块中选用了高性能Stratix III FPGA,该模块支持Intel的前端总线(FSB)。基于Intel Xeon处理器的服务器采用这一高性能计算方案后,能够进一步增强处理能力。该模块可直接插入双插槽或者四插槽服务器的处理插槽中。与单个处理器相比,其加速性能提高了10倍到100倍,同时降低了系统总功耗。 XtremeData公司CEO Ravi Chandr
[焦点新闻]
Samtec AI 应用详述 | 人工智能加速器所需的连接器
【摘要前言】 过去几年的发展将人工智能(AI)和机器学习(ML)推上了风口浪尖。随着在线工具的发展,消费者现在可以利用人工智能的力量完成一系列任务。 科学家在计算机上计算、分析和可视化复杂的数据集,含数据挖掘、人工智能、机器学习、商业分析。 高性能互连是中央处理器(CPU)和人工智能加速器之间的纽带,在实现这些系统所需的可扩展性和灵活性方面发挥着至关重要的作用。 今天,我们将在文章的技术分享之后,为大家带来Samtec产品的对应解决思路,请跟随小编一探究竟吧! 【本质:数据和计算】 尽管人工智能这几年才成为人们关注的焦点,但它已经与我们相伴了一段时间。 人工智能为算法提供动力,这些算法为我们
[工业控制]
Samtec <font color='red'>AI</font> 应用详述 | <font color='red'>人工智能</font><font color='red'>加速器</font>所需的连接器
人工智能处理器和加速器到底是什么?
AI 加速器是一种专用硬件组件,旨在增强人工智能 (AI)和机器学习 (ML)应用程序的性能。与传统处理器不同,AI 加速器针对 AI 任务(例如深度学习和神经网络处理)的独特计算要求进行了优化。这些加速器对于加速AI 工作负载、提高效率和实现实时数据处理至关重要,因此对于各种行业和应用程序来说都是必不可少的。 AI 加速器有多种形式,包括图形处理单元 (GPU)、张量处理单元 (TPU)、现场可编程门阵列 (FPGA)和专用集成电路 (ASIC)。每种类型的加速器都旨在处理特定类型的 AI 工作负载,提供不同级别的性能、灵活性和能效。最常见的有: GPU:GPU 最初设计用于图形渲染,擅长同时执行多项任务,也就是所谓的并行处理,
[嵌入式]
瑞萨推出集成DRP-AI加速器的RZ/V2N, 扩展中端AI处理器阵容,助力未来智能工厂与智慧城市发展
无需冷却风扇的高能效MPU实现先进的边缘视觉AI,缩小系统尺寸并降低成本 2025 年 3 月 11 日,中国北京讯 - 全球半导体解决方案供应商瑞萨电子今日宣布推出一款面向大规模视觉AI市场的新产品——RZ/V2N,进一步扩展RZ/V系列微处理器(MPU)的产品阵容 。与其高端产品RZ/V2H类似,新产品配备瑞萨专有AI加速器DRP(动态可重配置处理器)-AI3。得益于先进的剪枝(注1)技术,可实现10TOPS/W(每瓦每秒万亿次运算)的能效和高达15TOPS的AI推理性能。随着RZ/V2N的最新加入,RZ/V系列现已覆盖从低端RZ/V2L(0.5TOPS)到高端RZ/V2H(高达80TOPS)的全系列市场。 全新RZ/
[工业控制]
瑞萨推出集成DRP-<font color='red'>AI</font><font color='red'>加速器</font>的RZ/V2N,  扩展中端<font color='red'>AI</font>处理器阵容,助力未来智能工厂与智慧城市发展
Supermicro机柜级液冷解决方案配备产业最新加速器,专注推动AI与高性能计算的融合
完善的数据中心液冷解决方案采用最新高密度GPU服务器,并搭载高性能的CPU与GPU,加速实现AI工厂的搭建 【2024年5月17日,美国加州圣何塞、德国汉堡及国际超算大会(ISC)讯】 Supermicro, Inc. 作为AI、云端、存储和5G/边缘领域的全方位IT解决方案制造商,致力满足客户的严苛需求,包括扩展AI和高性能计算性能,同时降低数据中心功耗 。Supermicro提供完善液冷解决方案,包括散热板、冷却分配单元(Cooling Distribution Unit,CDU)、冷却分配分流管(Cooling Distribution Manifold,CDM)以及整座冷却塔。数据中心液冷服务器和基础架构可使数据中心电
[工业控制]
Supermicro机柜级液冷解决方案配备产业最新<font color='red'>加速器</font>,专注推动<font color='red'>AI</font>与高性能计算的融合
小广播
最新网络通信文章
厂商技术中心

 
EEWorld订阅号

 
EEWorld服务号

 
汽车开发圈

 
机器人开发圈

About Us 关于我们 客户服务 联系方式 器件索引 网站地图 最新更新 手机版

站点相关: 综合资讯 其他技术 下一代网络 短距离无线 基站与设施 RF技术 光通讯 标准与协议 物联网与云计算 有线宽带

索引文件: 3 

词云: 1 2 3 4 5 6 7 8 9 10

北京市海淀区中关村大街18号B座15层1530室 电话:(010)82350740 邮编:100190

电子工程世界版权所有 京ICP证060456号 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2026 EEWORLD.com.cn, Inc. All rights reserved