爱芯通元NPU完成Llama 3和Phi-3大模型适配,推动AI大模型技术应用普及

发布者:EE小广播最新更新时间:2024-04-28 来源: EEWORLD关键字:NPU  AI  大模型 手机看文章 扫描二维码
随时随地手机看文章

中国 2024年04月28日——人工智能芯片研发及基础算力平台公司爱芯元智宣布,近日,Meta、Microsoft相继发布具有里程碑意义的Llama 3系列和Phi-3系列模型。为了进一步给开发者提供更多尝鲜,爱芯元智的NPU工具链团队迅速响应,已基于AX650N平台完成 Llama 3 8B和Phi-3-mini模型适配。


Llama 3


上周五,Meta发布了Meta Llama 3系列语言模型(LLM),具体包括一个8B模型和一个70B模型在测试基准中,Llama 3模型的表现相当出色,在实用性和安全性评估中,与那些市面上流行的闭源模型不相上下。


image.png?imageView2/2/w/1000


在架构层面,Llama 3选择了标准的仅解码(decoder-only)式Transformer架构,采用包含128K token词汇表的分词器。Llama 3使用了超过15T的公开数据进行训练,其中5%为非英文数据,涵盖30多种语言,训练数据量是前代Llama 2的七倍。


根据Meta的测试结果,Llama 3 8B模型在MMLU、GPQA、HumanEval等多项性能基准上均超过了Gemma 7B和Mistral 7B Instruct,70B模型则超越了名声在外的闭源模型Claude 3的中间版本Sonnet,和谷歌的Gemini Pro 1.5相比三胜两负。


image.png?imageView2/2/w/1000


实际上板结果:目前AX650N已经完成了Llama 3 8B Int8版本的适配,若采用Int4量化,每秒token数还能再翻一倍,能满足正常的人机交流。


Phi-3


Llama 3刚发布没多久,竞争对手就来了,而且是可以在手机上运行的小体量模型。


本周二,微软发布了自研小尺寸模型Phi-3。尽管Phi-3-mini被优化至可部署在手机上,但它的性能可以与Mixtral 8x7B和GPT-3.5等模型相媲美。微软表示,该创新主要在于用了质量更好的训练数据集。


image.png?imageView2/2/w/1000

image.png?imageView2/2/w/1000

实际上板结果:目前AX650N已经完成了Phi-3-mini Int8版本的适配,已能满足正常的人机交流。


其他成果


AX650N能第一时间完成Llama 3和Phi-3的适配,源于今年以来相关团队悄悄完成了现有NPU工具链针对大语言模型的支持和调优。目前除了Llama 3之外,已经完成了Llama 2、TinyLlama、Phi-2、Qwen1.5、ChatGLM3等国内外主流的开源大语言模型适配。


相关成果已释放到开发者社区欢迎尝鲜。


后续计划


今年是AIPC的元年,爱芯元智将针对AIPC的常见应用提供更多的解决方案。充分发挥爱芯通元NPU高能效比的技术优势,让各种有趣的大模型实现高性价本地化部署,做到“人人都用得起大模型”,深入实践“普惠AI,造就美好生活”。


关键字:NPU  AI  大模型 引用地址:爱芯通元NPU完成Llama 3和Phi-3大模型适配,推动AI大模型技术应用普及

上一篇:Gartner发布2024年重要政府技术和业务趋势
下一篇:科技集市培养数字创造力,高通公司支持乡村科技教育发展

推荐阅读最新更新时间:2026-03-25 13:25

NPU完成Llama 3和Phi-3模型适配,推动AI模型技术应用普及
中国 2024年04月28日—— 人工智能芯片研发及基础算力平台公司爱芯元智宣布,近日,Meta、Microsoft相继发布具有里程碑意义的Llama 3系列和Phi-3系列模型 。为了进一步给开发者提供更多尝鲜,爱芯元智的NPU工具链团队迅速响应,已基于AX650N平台完成 Llama 3 8B和Phi-3-mini模型适配。 Llama 3 上周五,Meta发布了Meta Llama 3系列语言模型(LLM),具体包括一个8B模型和一个70B模型在测试基准中,Llama 3模型的表现相当出色,在实用性和安全性评估中,与那些市面上流行的闭源模型不相上下。 在架构层面,Llama 3选择了标准的仅解码(decod
[网络通信]
<font color='red'>爱</font><font color='red'>芯</font><font color='red'>通</font><font color='red'>元</font><font color='red'>NPU</font>完成Llama 3和Phi-3<font color='red'>大</font><font color='red'>模型</font>适配,推动<font color='red'>AI</font><font color='red'>大</font><font color='red'>模型</font>技术应用普及
2024 WAIC智能芯片及多模态模型论坛丨AI处理器助力打造普惠智能
中国 上海 2024年07月08日—— 人工智能芯片研发及基础算力平台公司爱芯元智宣布,7月5日在2024世界人工智能大会上成功举办“芯领未来丨智能芯片及多模态大模型论坛” 。论坛以“引领人工智能革新 造就普惠智能生活”为主题,汇聚了芯片、大模型、智能制造等领域的专家与意见领袖,共同分享大模型时代的创新机遇及落地成果。 爱芯元智提出打造基于边端智能的AI处理器的产品主张,并突出强调其“更经济、更高效、更环保”的先进优势。分论坛上,爱芯元智正式发布“爱芯通元AI处理器”,展示了智能芯片与大模型深度融合的技术应用与商业生态。 云边端加速一体化,更经济、更高效、更环保成为AI芯片关键词 当前,我国大模型正迎来飞速发展,
[网络通信]
2024 WAIC智能芯片及多模态<font color='red'>大</font><font color='red'>模型</font>论坛丨<font color='red'>爱</font><font color='red'>芯</font><font color='red'>通</font><font color='red'>元</font><font color='red'>AI</font>处理器助力打造普惠智能
智正式公布混合精度NPU中文名称“®”
中国 上海 2023年7月19日——爱芯元智宣布,企业核心技术混合精度NPU正式启用中文名称“爱芯通元®”。与此同时,爱芯元智联合创始人、副总裁刘建伟在第三届中国集成电路设计创新大会暨无锡IC应用博览会(ICDIA 2023)的“AIoT与ChatGPT”专题论坛上,受邀做《爱芯元智AX650N Transformer端边落地平台》主题演讲,并介绍了第三代SoC芯片AX650N在端侧、边缘侧部署Transformer的领先优势。 爱芯元智混合精度NPU中文名“爱芯通元®”正式公布 近年来,AIoT行业规模快速成长,不仅是各大传统行业智能化升级的最佳通道,也是未来物联网发展的重要方向。同时,自2022年底发布以来,以
[物联网]
<font color='red'>爱</font><font color='red'>芯</font><font color='red'>元</font>智正式公布混合精度<font color='red'>NPU</font>中文名称“<font color='red'>爱</font><font color='red'>芯</font><font color='red'>通</font><font color='red'>元</font>®”
迈动数康:用脑机接口和AI模型,开启睡眠健康新方案
“全球现有8.52亿睡眠障碍患者,约占总人口的12%。美国、中国是患病率较高的国家,中国的睡眠障碍发病率实际已接近50%,远超此前认知的30%,带来了沉重的社会负担。“2025年11月11日,在“第四届南渡江智慧医疗与康复产业高峰论坛”上,杭州迈动数康科技有限公司联合创始人赵康卿分享了这样一组数据。 为了解决人们的睡眠问题,当下非常火热的脑机接口和大模型或成为破局的关键。赵康卿分享了目前脑机接口和大模型赋能的睡眠医学前沿进展。 为什么现在人们探索脑机接口作为解决睡眠障碍的关键?这是因为针对睡眠监测与诊断,由于睡眠障碍多发生在夜间,需要长时间持续监测。赵康卿表示,目前常见监测方式分为穿戴式和非穿戴式两类:医用PS
[医疗电子]
迈动数康:用脑机接口和<font color='red'>AI</font><font color='red'>大</font><font color='red'>模型</font>,开启睡眠健康新方案
1-9月域控榜单!AI座舱渗透率突破10%,端侧模型/舱驾一体发力
智能化、人性化和个性化的交互体验正在成为车端座舱平台的进化新趋势。多模态融合、AI大模型以及端侧算力的进一步提升,也在加速智能座舱整体解决方案进入新的迭代周期。 高工智能汽车研究院监测数据显示,截至今年三季度末,中国市场(不含进出口)乘用车前装标配AI座舱(NPU算力 30TOPS)搭载率首次突破10%大关;同时,算力门槛还在不断提高,预计未来几年,超百TOPS算力将逐步成为AI座舱的标配。 比如,作为自主品牌首选方案,华为鸿蒙座舱5也集成了MoLA混合大模型架构(通用大模型与垂直领域AI能力深度融合),以提升语音交互、影音体验和场景化服务。 按照工信部最新政策风向,智能座舱多模态交互、场景化服务等创新模式也在不断涌现
[汽车电子]
奔驰押注中国AI,国产模型上车
豆包上车奔驰 9月开始步入金秋,如火如荼的车市里,奔驰宣布了一则重磅消息。 9月23日,梅赛德斯-奔驰与字节跳动签署战略合作升级协议,梅赛德斯-奔驰集团股份公司董事会成员、负责大中华区业务的佟欧福(Oliver Thöne)与北京字节跳动董事长张利东在现场见证签约。 此次合作升级后,奔驰与字节跳动的合作内容将覆盖 自动驾驶 、 智能座舱 、研发提效、数字化营销四大核心领域。接下来,我们将首先看到豆包 大模型 登陆奔驰全新的纯电车型CLA,这款车预计在秋天上市。 这次的合作签约,由奔驰大中华区最高负责人亲自见证,规格还是相当高的,在跨国车企的在华合作上算是比较少见,也充分说明了奔驰对于在中国本土的 智能化 开发,以及
[汽车电子]
豆包模型开始上车了!上汽荣威率先进入AI智舱新拐点
豆包深度思考 大模型 ,跨界上车了。 这说不上出人意料,毕竟AI正在从内到外全链路重塑汽车,尤其是AI智舱给用户带来了全新体验,深度思考带来了强大的智能和便捷,这背后离不开大模型的赋能。 豆包的深度思考和推理能力,正是当下许多主机厂所急需的智能底座。 然而让许多人意外的是,首发豆包大模型的是上汽荣威,车企巨头与 互联网 大厂携手,将AI智舱推向新阶段。 没有深度思考,谈何AI智舱? AI正在全面重塑汽车,让车辆不只限于出行工具,还可以是移动的出行空间,在这个空间里,用户希望AI能提供智能便捷的服务,而且最好“千人千面”。 为了迎合用户的需求,AI智舱的概念开始出现,各种各样的座舱功能涌现,一时间鱼龙混杂,于
[汽车电子]
英特尔VRAM技术把30B参数模型“装进口袋”,Flowy AI率先适配
近日, 阿里通义千问发布了两款新版本30B(300亿参数)MoE大模型——Qwen3-30B-A3B-Instruct-2507 和 Qwen3-Coder-30B-A3B-Instruct 。在搭载英特尔® 酷睿™ Ultra 200H处理器和32GB内存的AI PC上,英特尔可变显存技术(Intel Variable VRAM Technology)可以将VRAM分配比例从57%提升到87%1,从而更加流畅地运行这两款大模型,为本地部署注入新活力的同时,带来“更聪明”的AI应用体验。AI PC智能助手Flowy AI率先实现了这两款模型的适配并开放下载,用户可即刻下载体验。 智能内存管理,动态按需分配 英特尔可
[网络通信]
英特尔VRAM技术把30B参数<font color='red'>大</font><font color='red'>模型</font>“装进口袋”,Flowy <font color='red'>AI</font>率先适配
小广播
最新网络通信文章
厂商技术中心

 
EEWorld订阅号

 
EEWorld服务号

 
汽车开发圈

 
机器人开发圈

About Us 关于我们 客户服务 联系方式 器件索引 网站地图 最新更新 手机版

站点相关: 综合资讯 其他技术 下一代网络 短距离无线 基站与设施 RF技术 光通讯 标准与协议 物联网与云计算 有线宽带

索引文件: 4 

词云: 1 2 3 4 5 6 7 8 9 10

北京市海淀区中关村大街18号B座15层1530室 电话:(010)82350740 邮编:100190

电子工程世界版权所有 京ICP证060456号 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2026 EEWORLD.com.cn, Inc. All rights reserved