这一次,英特尔要全面颠覆AI了

发布者:EEWorld资讯最新更新时间:2024-04-24 来源: EEWORLD作者: 付斌关键字:AI  至强 手机看文章 扫描二维码
随时随地手机看文章

AI行业火热,作为基础设施巨头的英特尔也在不断加大布局,先是在去年提出AI PC的概念,今年也在不断加大AI投入。


日前,英特尔中国区领导齐聚一堂,共同探讨一个话题——AI。


企业AI:开放、易部署、可扩展、可靠


前两年,大家“卷”的是大模型,即互相比拼模型参数,也从而催生了诸如1000亿参数,甚至是万亿参数的模型。


然而,在大模型及生成式AI智力涌现的背后,如何在行业中成功落地至关重要,而技术落地的关键在于:开放、经济、可扩展和可靠。


为此,英特尔推出企业AI。英特尔公司市场营销集团副总裁、中国区数据中心销售总经理、中国区运营商销售总经理庄秉翰解释,与AI算力集中在公共场合的通用模型不同,企业AI能够通过开放的生态,更有规模地、更可靠地帮助企业释放AI潜力,这也是英特尔企业AI最基本的核心。


英特尔公司市场营销集团副总裁、中国区云与行业解决方案部总经理梁雅莉强调,英特尔在中国始终秉承着“水利万物而不争”的理念,其中,“利”和“不争”均有其深刻的含义。


她表示,当一个新的技术潮流来临、新一代技术的应用扩展之时,开放、可靠和易部署的策略对终端用户来说极为关键,这也是英特尔在以往每一次技术迭代过程中,与OEM、ODM、ISV、SI等在内整个生态系统合作的基础。



根据梁雅莉的介绍,小米SU7背后由金山云云基础平台所支持,英特尔与金山云合作,在其第七代性能保障型云服务器 X7 中引入了第四代至强可扩展处理器进行了针对性优化;基于第五代至强可扩展处理器的京东云新一代云服务器整体性能提高了23%;TCL华星借助英特尔提供的硬件产品和“云边端”架构,降低了人力和设备配置成本,使产品良率得到迅速提升;医药领域,英矽智能基于英特尔酷睿Ultra 7 的本地部署,基于第五代英特尔至强可扩展处理器的SaaS服务,PandaOmics平台帮助研发人员进行先期药物的发现和探索。


在工业方面,根据英特尔公司市场营销集团副总裁、英特尔中国网络与边缘及渠道数据中心事业部总经理郭威的介绍,生成式AI让机器设备、机器人具有了自我学习、自我生成的能力。根据客户最后的需求,可以自动生成PLC逻辑控制器代码,并且把这个代码用在机器人的运动控制上,这样可以极大地让终端客户降低使用这个设备的成本,而不需要自己专门维护一个很大的编程团队做这个事情。


至强6:AI性能直线飙升


去年,英特尔将其产品推出至第五代至强,该产品便拥有不俗的AI推理表现。现在,英特尔将其更新到至强6,与以往每一代至强不同,全新的至强6品牌是一个产品组合,通过至强6的产品组合,我们可以解决数据中心在性能、功耗,以及多元工作负载等方面的各种不同问题。



至强6拥有两个不同的微架构,有点类似我们之前常常说起的大小核,即一个更强调性能的性能核(P-core),和一个更强调功耗比的能效核(E-Core)。


配备能效核(E-Core)的至强6,性能取得了质的飞跃,与第二代英特尔至强处理器相比,每瓦性能提高2.4倍,机架密度提高2.7倍。要知道,这种核心更强调的是功耗,这意味着我们可以用更少的核心,完成过去同等的工作,从而节能减排。



配备性能核(P-core)的至强6(代号为Sierra Forest)将于今年第二季度率先发布,它不仅能够支持MXFP4数据格式,在传统的FP16有性能提升,也可以运行700亿参数的Llama2。日前,英特尔称Granite Rapids在运行80亿参数的Llama 3模型推理时,延迟比第四代英特尔至强处理器表现出两倍的提升,并且能够以低于100毫秒的token延迟运行700亿参数的Llama 3模型推理。简单来说,就是随随便便跑大模型。


AI NIC:专为AI打造的连接


现在的AI系统本质上还是采取的冯诺依曼的架构,也就是说,我们不仅要看系统不的算能,还要看数据传输的能力。


当下,着大模型不断发展,模型规模已经超过了万亿,无论推理还是训练,很多实践场景往往需要分布式的并行系统,来满足模型处理所需要的要求。在并行处理过程中,会涉及到大量的数据应用。


以训练为例,训练过程中会产生大量中间结果,这些中间结果需要在不同加速卡中间进行分享。而在大模型整个网络中,可以看到网络流量体现出瞬时并发的特征,在整个模型处理过程中,会频繁出现多张加速卡向一张加速卡发送数据的情况,这样会造成网络拥塞。所以如何更好解决网络拥塞的问题,是我今后制约大模型性能提升以及规模扩张的核心要素。


英特尔中国网络与边缘事业部首席技术官、英特尔高级首席AI工程师张宇表示,解决上述问题时,英特尔有相应的技术和产品,同时英特尔和合作伙伴倡导成立了新的超级以太网联盟(UEC),宗旨就是要定义新一代增强的以太网技术,以一种开放的方式来面对新时代大模型对整个网络的要求。


不止如此,英特尔在下半年,会推出第一代基于ASIC IPU的产品,也就是基础架构处理器产品。这款产品首先能够提供高达200GB/s的速度,同时能够提供非常灵活的包的处理能力,非常能够满足现在大模型的时代对网络的要求。


在今年下半年计划推出IPU产品的基础上,英特尔会不断持续做网络创新工作,我们会在IPU上进行进一步优化,开发下一代专门面对AI网络优化的产品,英特尔把这一类产品叫做AI NIC。


AI NIC在后面会有两种形态,一种形态是它会以独立网卡的形态存在,跟不同的加速器之间进行对接。另外还有一种形态是芯粒的形态,不同的AI加速器甚至可以把AI NIC集成到整个AI加速器的芯片里面去,做成一个完整的SoC,包括英特尔自己的AI加速器。


张宇表示,在2026年我们推出的加速的产品中,也会继续把AI NIC集成进去,这样可以更好的满足AI大模型网络对网络传输、数据传输的可靠性、稳定性等方面的要求。



软件:开放软件生态激发AI创新


软件也是英特尔AI战略中重要的一环。英特尔公司副总裁、英特尔中国软件和先进技术事业部总经理李映分享了三点。


第一,未来软件非常重要的点是如何通过软件加速企业AI的发展。在底层,英特尔软件能够保证硬件性能充分释放。从整个软件堆栈来讲,英特尔是少数几家企业能够真正可以在各个层面上通过软件提供优化、提供技术,帮助客户一起实现传统的、云架构的企业IT架构,和未来AI企业IT架构的融合。


第二,英特尔极力推动基于AI的软件创新。比如,英特尔一直是PyTorch前几名的贡献者,这种贡献不仅是对PyTorch平台本身进行优化,也是基于英特尔技术或者是把我们最新的一些创新投入到整个PyTorch开源框架之中,让业内更多企业,更多的开发者得到共享。在整个的框架之上,英特尔通过一系列的贡献,可以让整个AI软件框架变得更加开源、开放。oneAPI就是很典型的例子,根据最新数据,oneAPI已经超过100万次的下载量。


第三,英特尔开发者云平台不仅能帮助开发者更早熟悉和使用至强在内的硬件,更重要的是能够保证各种开源框架、组件在一个环境中,能够保证这种框架之间的兼容性,让开发者能够有更好的用户体验,实现整个开发效率的提升。


当用户拥有开放的生态系统之后,会有什么好处?英特尔院士、大数据技术全球首席技术官、大数据分析和人工智能创新院院长戴金权表示,很多开源大模型训练的方法、数据、算法,因为在同一个开源生态系统上,是可以相互促进的,同时上面新的应用场景也可以互通。


总结


从英特尔的布局不难看出,英特尔未来对于AI生态的建设,不局限于硬件方面,也会包括基础设施、软件生态和应用生态。此外,英特尔能够满足不同层级的不同需求,拥有非常全面的技术储备,让千行百业轻松拥抱AI。

关键字:AI  至强 引用地址:这一次,英特尔要全面颠覆AI了

上一篇:美国正在审查中国使用RISC-V芯片技术对国家安全的影响
下一篇:RISC-V里程碑,两年内批准了 40 项规范

推荐阅读最新更新时间:2026-03-20 14:58

英特尔与SambaNova达成多年战略合作,携手基于至强处理器打造AI推理解决方案
当前, AI工作负载日趋多样与复杂,越来越多的企业与机构正根据自身需求灵活选择解决方案 。由此,也带动了对异构基础设施的需求,而这需要多元算力、内存、网络以及软件基础上的一致性,以支撑数据中心层面的大规模推理部署。 近日,SambaNova 宣布与英特尔启动一项为期多年的合作计划,即基于英特尔 ® 至强 ® (Intel ® Xeon ® )平台的基础设施,为全球AI原生企业、模型提供方、企业客户及机构提供高性能、具备成本效益的AI推理解决方案。与此同时,英特尔资本也将参与SambaNova的E轮融资。 对于那些在AI工作负载方面,与SambaNova技术方案高度匹配的客户,在英特尔基于GPU的解决方案就绪之前,英特尔CP
[网络通信]
第五代至强AI跑分结果出炉:比第四代强1.42倍
AI领域永远都在革新。但随着大模型对算力需求的高速增长,现阶段生产的芯片很难满足业界需求。 前阵子,英特尔发布了第五代英特尔至强可扩展处理器,这款产品不仅在性能指标上有很大提升,在AI性能上也非常强劲。甚至可以说,能够胜任部分AI大模型的推理工作。 不过,口说无凭,唯有跑分才能证明真正的实力。 近日,MLCommons公布了针对AI推理的 MLPerf v4.0基准测试结果 。 比第四代强1.42倍 第五代至强内置了英特尔 ® 高级矩阵扩展(英特尔 ® AMX)的第五代英特尔 ® 至强 ® 可扩展处理器(以下简称“第五代至强”)在测试中表现优异,进一步彰显了英特尔致力于通过丰富且具有竞争力的解决方案
[嵌入式]
第五代<font color='red'>至强</font><font color='red'>AI</font>跑分结果出炉:比第四代强1.42倍
更快、更强:英特尔推出全新至强 600 系列工作站处理器
英特尔最新工作站处理器家族拥有多达 86 个性能核(P-core)和 128 个 PCIe 5.0 通道,为下一代专业工作流程提供强劲动力。 最新动态:今日,英特尔发布全新英特尔 ® 至强 ® 600 系列工作站处理器,这是对英特尔高端工作站平台(采用英特尔 ® W890 芯片组)的一次全面升级。与上一代产品组合相比,最新一代英特尔工作站处理器在多个方面均实现显著提升,包括核心数量的大幅增加、PCIe 连接性的增强、对更高内存速度的支持,以及前所未有的能效表现。 英特尔客户端计算事业部工作站业务总监Hector Guevarez表示:“面对各行业对高算力日益增长的需求,英特尔推出英特尔 ® 至强 ® 600 系列工作站
[网络通信]
更快、更强:英特尔推出全新<font color='red'>至强</font> 600 系列工作站处理器
首款基于Intel 18A的至强6+,有什么技术关键点值得关注?
英特尔正在经历历史性一刻,所有人的目光都集中在英特尔身上,尤其是Intel 18A工艺上。日前,英特尔在一次分享中表示Intel 18A已经在两座工厂开始生产良率相当或高于英特尔在过去十五年推出的制程节点。这说明这一节点已经稳了。 不止如此,英特尔还在近期预览了其首款基于Intel 18A的数据中心服务器芯片至强(Xeon)6+,代号Clearwater Forest,预计将于2026年上半年推出。那么,这款产品背后有什么技术关键点值得关注?日前,英特尔技术专家向EEWorld分享了其中的细节。 相比上一代,性能翻倍式提升 “全新一代至强6+能效核处理器Clearwater Forest在Sierra Fore
[嵌入式]
首款基于Intel 18A的<font color='red'>至强</font>6+,有什么技术关键点值得关注?
​英特尔携手壳牌推出基于至强处理器的浸没式液冷数据中心解决方案
英特尔携手壳牌打造浸没式液冷认证方案,助力数据中心迈向高效未来 打造业界领先的浸没式液冷解决方案,为数据中心用户在AI时代构建可持续、高效液冷的发展路径。 在AI和计算能力飞速发展的当下,数据中心对强大基础设施的需求持续增长,随之而来的散热问题也愈发凸显,因此IT运维人员正在积极寻找高效、可扩展且可持续的散热方案。其中,液冷技术因其卓越的散热效果而备受青睐,据Dell’Oro Group1预测,到2028年,企业在液冷方面的投入将占数据中心散热管理收入的36%。然而,尽管浸没式液冷技术性能卓越,但由于业界仍缺乏经过验证且易于部署的浸没式液冷解决方案,其推广和应用仍面临诸多挑战。 面对数据中心液冷领域的关键挑战,英特尔携
[网络通信]
​英特尔携手壳牌推出基于<font color='red'>至强</font>处理器的浸没式液冷数据中心解决方案
英特尔至强6处理器:以卓越性能与能效,驱动数据中心整合升级
英特尔至强6家族,为AI数据中心注入强劲动力 继去年9月重磅推出英特尔® 至强® 6900性能核处理器后,英特尔进一步扩充至强6产品家族,于近期发布了包括至强6700性能核处理器及至强6500性能核处理器在内的多款新品,以更丰富的产品组合、卓越性能与出色能效,应对横跨数据中心、网络与边缘的广泛工作负载需求。 丰富的至强6产品组合 英特尔至强6性能核处理器专为计算密集型工作负载而设计,提供高度灵活的配置选项。从最低16个核心到最高128个核心,客户可根据实际应用选择最佳配置。针对传统大型数据库等对连接速度和多核并行处理能力有较高要求的场景,全新至强6700/6500性能核处理器不仅在核心数量、I/O带宽和内存容量上带来了
[网络通信]
新突破!超高速内存,为英特尔至强6性能核处理器加速
英特尔携手行业伙伴,以创新方法实现标准DRAM模块内存带宽翻倍,该即插即用的解决方案可释放至强6性能核处理器潜力。 一直以来, 英特尔深耕处理器市场——这些处理器被看作是保障计算机出色运行的“大脑”,但不能忽略的是,系统内存(DRAM)在提升整体性能方面也扮演着重要角色。 特别是在服务器领域,由于处理器核心数量的增长速度超过了内存带宽的提升,这就意味着每个核心实际可用的内存带宽相应减少了。 像天气建模、计算流体动力学和某些特定的AI场景,它们往往需要运行大量的工作负载,这样一来,处理器核心与内存带宽之间的失衡,就可能会导致计算瓶颈。现在,技术创新为我们带来了新的解决办法。 经过多年与行业伙伴的合作,英特尔工程师
[网络通信]
新突破!超高速内存,为英特尔<font color='red'>至强</font>6性能核处理器加速
联想2100TOPS自驾域控下线,至强算力引领自动驾驶新纪元
2024年8月2日,联想车计算宣布:面向L4级自动驾驶市场的车规级域控制器产品AD1在联想合肥产业基地首次下线。这一成就使联想成为全球首批成功点亮NVIDIA DRIVE Thor 平台的汽车一级供应商。 联想车计算AD1域控制器在AI加速能力上INT8/FP8算力高达2100 TOPS,基于SPECrate 2017评估的CPU算力值达到174,是名副其实的“性能猛兽”。 功能安全可以达到ISO 26262的ASIL D等级,网络安全满足ISO21434要求,且各种传感器接口丰富。联想正在基于NVIDIA DRIVE OS进行开发,该操作系统是NVIDIA为安全、AI定义汽车设计的车载计算解决方案。AD1是针对L4级自动驾驶
[汽车电子]
联想2100TOPS自驾域控下线,<font color='red'>至强</font>算力引领自动驾驶新纪元
小广播
最新嵌入式文章
何立民专栏 单片机及嵌入式宝典

北京航空航天大学教授,20余年来致力于单片机与嵌入式系统推广工作。

厂商技术中心

 
EEWorld订阅号

 
EEWorld服务号

 
汽车开发圈

 
机器人开发圈

电子工程世界版权所有 京ICP证060456号 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2026 EEWORLD.com.cn, Inc. All rights reserved