利用Spartan-3 FPGA实现高性能DSP功能

2008-04-28 11:09:50编辑:ssb 关键字:FPGA  DSP  FIR滤波器  乘法器  器件  功能  移位寄存器  查找表  累加器

  Spartan-3FPGA能以突破性的价位点实现嵌入式DSP功能。本文阐述了Spartan-3 FPGA针对DSP而优化的特性,并通过实现示例分析了它们在性能和成本上的优势。

  所有低成本的FPGA都以颇具吸引力的价格提供基本的逻辑性能,并能满足广泛的多用途设计需求。然而,当考虑在FPGA构造中嵌入DSP功能时,必须选择高端FPGA以获得诸如嵌入式乘法器和分布式存储器等平台特性。

  Spartan-3 FPGA的面世改变了嵌入式DSP的应用前景。虽然Spartan-3系列器件的价位可能较低,但它们同样具有DSP设计所需的平台特性。这些平台特性能够以较高的面积利用率实现信号处理功能,使设计达到更低价位点。

  Spartan-3器件用作协处理器或预/后处理器是非常理想的,它们将运算密集型功能从可编程DSP上卸载下来以增强系统性能。

  针对DSP而优化

  赛灵思公司的Spartan-3器件采用90nm工艺技术以及300mm晶圆,大大降低了FPGA的成本。与此同时,这些器件还包括诸如嵌入式18×18位乘法器、大块存储器(18kb)、分布式RAM以及移位寄存器等关键DSP资源。这些高级特性意味着采用Spartan-3 FPGA,能以比其它竞争FPGA低得多的价位实现DSP算法。

  

  

  图1:增强型架构允许用

  单个LUT代替16个寄存器。

  除增加系统的基本性能之外,这些嵌入式特性还能提高器件的利用率。例如,如果在逻辑结构中实现Spartan-3嵌入式乘法器,需要占用300~400个逻辑单元(LE)。此外,因为嵌入式乘法器紧邻逻辑结构,所以拓展其功能(比如创建加法器或者级联多个乘法器来支持复杂的算法功能)是非常简单的。

  为提高效率,许多DSP功能以时分复用的形式在管道中得以很好实现。这样做虽然能创建带宽更高、速度更快的系统,但同时也将面临更多临时存储单元需求而带来的成本增加。譬如,时分复用滤波器需要将各个乘法-累加单元的结果存储在移位寄存器里。这种设计将在用完FPGA的逻辑资源之前就可能耗尽寄存器或存储器资源。Spartan-3 FPGA系列的独特之处在于它们可提供这样一种模式:一个查找表(LUT)能够执行逻辑功能或配置成一个16位移位寄存器。

  如图1所示,这种增强型的架构允许用单个LUT来代替16个寄存器,在实现时分复用DSP功能时能使面积利用率最大化。

  许多DSP功能也需占用大量的存储器资源,它们需要便笺存储器来保存系数、执行FIFO以及获得较大的缓冲区。与目前使用的其它低成本FPGA相比,Spartan-3器件可提供更多的存储位数。对于许多DSP设计而言,最重要的资源是FPGA内的嵌入式存储器,而不是逻辑电路或者乘法器。因为存储资源不足,采用竞争的低成本器件的设计工程师不得不选用更大规模的器件或采用外部存储器来构建系统,而这些系统只需一片体积很小的Spartan-3 FPGA就可以得到实现。

  常见的DSP功能实现

  下面通过分析有限冲击响应(FIR)滤波器的两个实现示例来说明这些特性是如何影响器件的利用率。一个是基于乘法累加器(MAC)的实现,另一个是基于多通道分布式算法(DA)的实现。

  FIR滤波器通常应用于基站、数字视频、无线局域网、xDSL以及有线调制解调器。测试基准是在Spartan-3 XC3S400 FPGA中实现频率为130MHz、数据和系数均为16位的64抽头MAC FIR滤波器。第一个实现仅用了一个MAC,第二个实现则用了四个MAC。

  从采用单个MAC的实现到采用四个MAC的实现可显著增加FIR滤波器的性能,而LUT数量只增加一倍并仍仅占总可用逻辑资源的4%。四个MAC的实现使用了四块RAM和四个MAC,以最少的器件逻辑资源高效地实现了FIR滤波器。

  另一个有趣的实现是多通道FIR功能的实现,在这里可以看到从单通道FIR滤波器到8通道FIR滤波器,器件利用率是如何变化的。

  实现单通道分布式算法FIR滤波器使用了XC3S1000 Spartan-3器件29%的逻辑资源和39%的寄存器资源。当实现同样的8通道滤波器时,通常将不同通道进行时分复用来保存逻辑,但这将占用很多寄存器或者大量的片内存储器来存放中间结果。

  如果使用Spartan-3 FPGA,中间结果将被存放在由LUT配置成的16位移位寄存器(SRL-16)中。这样,实现同样的8通道滤波器只多使用10%的可用逻辑资源和7%的可用寄存器资源,也就是说,构建8个通道仅多占用25%的器件资源。

  这种显著的资源节约与Spartan-3器件中SRL-16的使用有直接关系,在8通道实现中还有另外1,343个LUT被用作SRL-16模式。

  如果在不支持SRL-16性能的FPGA中实现这种设计,将需要额外的10,744(1343×8)个触发器用作存储单元,这就必须选用大规模器件以提供数量庞大的寄存器,同时将也会消耗相关的组合逻辑资源。

 

关键字:FPGA  DSP  FIR滤波器  乘法器  器件  功能  移位寄存器  查找表  累加器

来源: 电子系统设计 引用地址:http://www.eeworld.com.cn/gykz/2008/0428/article_854.html
本网站转载的所有的文章、图片、音频视频文件等资料的版权归版权所有人所有,本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如果本网所选内容的文章作者及编辑认为其作品不宜公开自由传播,或不应无偿使用,请及时通过电子邮件或电话通知我们,以迅速采取适当措施,避免给双方造成不必要的经济损失。

上一篇:基于FPGA和RTOS的嵌入式码流分析设计方案
下一篇:大型设计中FPGA的多时钟设计策略

关注eeworld公众号 快捷获取更多信息
关注eeworld公众号
快捷获取更多信息
关注eeworld服务号 享受更多官方福利
关注eeworld服务号
享受更多官方福利

推荐阅读

扩充FPGA的应用范围—Intel又有大动作

英特尔收购eASIC  提高可编程解决方案事业部整体实力英特尔计划将结构化ASIC纳入业务组合,充分满足高性能、低功耗应用的需求。 当今,随着数据的爆炸式增长以及处理、分析、存储、分享数据的需求激增,推动着硅片市场的发展,这一动态又催生出企业对各类计算解决方案的需求,英特尔正在争夺有史以来最大的潜在硅片市场。英特尔在CPU有着很强的优势,如今也提供各类定制计算解决方案,帮助客户处理各类工作负载——包括在云端、网络、边缘。近年来,英特尔扩大了产品范围,引入突破性创新,涉及领域包括内存、调制解调器、特定用途定制ASIC、视觉处理单元、可编程逻辑门阵列(FPGA)。 FPGA的应用范围正不断扩大,因为它功能
发表于 2018-07-16 17:06:53

英特尔与百度强强联手,助力人工智能

在今日举行的百度AI开发者大会Baidu Create上,英特尔人工智能事业部副总裁Gadi Singer介绍了英特尔与百度在人工智能领域的一系列合作进展,包括英特尔Movidius视觉处理器(VPU)支持百度Xeye智能零售摄像头产品,英特尔FPGA助力百度计划推出的工作负载加速即服务,以及基于英特尔至强可扩展处理器平台优化的PaddlePaddle深度学习框架。英特尔人工智能事业部副总裁兼人工智能架构总经理Gadi Singer出席百度AI开发者大会并发表演讲 “从赋能终端设备智能化,基于至强可扩展处理器的大规模数据中心,到利用英特尔FPGA加速不同工作负载,再到让PaddlePaddle开发者更简便地进行跨平台编程
发表于 2018-07-04 16:42:53
英特尔与百度强强联手,助力人工智能

赛特斯:基于FPGA的vBRAS实现

环境,同时还可以根据运营商的要求,建立软硬件一整套端到端的定制化方案。”李晏补充道。如图所示,李晏给出了视频传输时候的实际对比,左侧为没有使用FPGA加速,右侧为使用了FPGA的情况。李晏解释道,在三层解耦条件下,每一个虚拟化网元所拥有的资源是相对固定而且匮乏的,在应对传统的网页操作没有问题,但是在一些流量巨大的视频应用时,没有FPGA进行加速的情况下,就会发生丢包等现象。李晏同时表示,尽管有些转发处理可以用CPU来进行,但是会造成处理性能的严重下降,而通过把某些数据报文业务下沉到FPGA中,可大幅降低CPU负载,提升系统的整体性能。“赛特斯的vBRAS业务是国内行业领先的,我们在纯x86情况下已经做到单CPU 120G的转发能力
发表于 2018-07-02 15:24:00
赛特斯:基于FPGA的vBRAS实现

为什么说FPGA和NFV是一个完美结合

2018年,英特尔推出集成58 Gb/s收发器的FPGA Stratix 10 TX,该产品通过提供更大带宽,从而实现对网络功能虚拟化(NFV)、云计算和5G的更强有力支持,借助英特尔的X86架构的支持,在虚拟化计算领域中,英特尔正在复制着数据中心领域的成功之道。近日,英特尔公司数据中心事业部副总裁兼 5G 基础设施部门总经理Caroline Y. Chan出席世界移动大会-上海站,并做了题为《英特尔FPGA加速NFV的采用》主题报告。英特尔公司数据中心事业部副总裁兼 5G 基础设施部门总经理Caroline Y. Chan5G给虚拟化带来了变革Caroline表示,5G未来的发展除了云端处理需求增加之外,还需要在边缘计算端进行
发表于 2018-07-02 15:03:08
为什么说FPGA和NFV是一个完美结合

专访UIUC陈德铭教授:「万能芯片」FPGA与深度学习

机器之心原创作者:邱陆陆人工智能的风潮从技术一路蔓延到硬件,让「芯片」成为今年行业里盛极一时的主题。人们关注通用芯片领域里 CPU 和 GPU 不断刷新的基准(benchmark),更对专用芯片(ASIC)领域不同场景下不断问世的解决方案表示出了空前的热情。 而众所周知,在专用芯片与通用芯片中间,还有一个更为灵活,也更为神秘的领域:FPGA。无论是英特尔天价的收购还是微软与 IBM 雄心勃勃的计划,都让人对其更加好奇。而「万能芯片」的名称,以及多样化的职责范围:它可以是智能手机里不起眼的一个小组件,也可以是数千美金一块的开发板,也让人对其真面目更加疑惑。 FPGA 与深度学习的关系究竟是什么?它适合
发表于 2018-06-25 11:42:13
专访UIUC陈德铭教授:「万能芯片」FPGA与深度学习

英特尔正研发高端GPU,未来GPU+CPU+FPGA

实现。AMD在2011年底推出的Radeon HD 7000系列时所用的“次世代图形核心(Graphics Core Next)”架构更是大量引用Larrabee项目的设计概念,将一些流处理器以及一些指令分派单元合作一个模块,称为“CU”。最后关于英特尔将在2020年推出的独立GPU,目前还没有更多的关键信息曝光,我们也难以预测经验丰富的Raja Koduri加入以及新成立的核心和视觉计算事业部能否给英特尔带来具有竞争力的高端GPU,摆脱独立GPU研发的“辛酸史”。更为重要的是,在英特尔全力向AI转型的背景下,如果高端GPU研发成功,英特尔将可以用CPU+GPU+FPGA组合参与到AI的竞争,毕竟Computex 2018期间英伟达
发表于 2018-06-18 13:33:19
英特尔正研发高端GPU,未来GPU+CPU+FPGA

小广播

电子工程世界版权所有 京ICP证060456号 京ICP备10001474号 电信业务审批[2006]字第258号函 京公海网安备110108001534 Copyright © 2005-2018 EEWORLD.com.cn, Inc. All rights reserved