打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
AMD的黎明之光!HBM显存技术解析
2015-05-30 16:57:13  出处:中关村在线   编辑:鲲鹏   人气: 32655 次    评论(80)
让小伙伴们也看看:
在忍耐了长达两个产品周期的时间之后,AMD终于来到了自己命运的十字路口。
毫无疑问,从Tahiti架构开始,AMD已经太久没有迎来属于自己的机会和节奏了。架构更新的乏力由很多因素所导致,这不仅是资源调配、财力许可或者研发实力那么简单,更重要的是命运和机会,AMD一直缺少能够让自己“名正言顺”的去颠覆现有架构设计的机会。现在,这种机会摆在了AMD全新的Fiji架构的面前,那就是HBM堆叠显存。
与以往的技术进步不同,HBM显存并未直接提升显存的速度或者改变信号模式,但它却同时实现了存储速度的提升、容量的激增以及能耗的大幅降低。用一句贴切的话形容,HBM显存所带来的革命让显存从此“站起来”了。除此之外,HBM显存还会大幅改变GPU逻辑结构的设计,这给亟待机会和空间去修改之前种种设计弊端的AMD带来了宝贵的施展空间。
显存的最重要革命将从这里开始
HBM显存到底是什么?是什么让它具备了上述种种优势?又是什么让它成了AMD的新契机和希望?在接下来的时间里,就让我们一起看看堆叠存储体系的技术细节吧。
何以为“堆叠”
与以往的显存形式不同,HBM显存的最大特点在于向“空间”要“空间”。前一个“空间”指的是立体空间,后一个“空间”则指存储空间。传统显存的存储模式以平面分布为基础,所有存储颗粒均分布于二维平面当中,除了使用更大容量的单颗颗粒之外,如果要拓展容量就只能占用更多的平面空间(在PCB上敷设更多颗粒并使用更长的连线)。HBM显存改变了这一传统,将颗粒集中在一起并向“上”进行了空间的延伸,在相同的“占地面积”下,HBM显存能够实现数倍于传统显存的存储容量。
堆叠内存
无论内存、显存或者SSD,甚至是手机/平板电脑的NAND,传统DRAM体系在提升容量时都会受到来自PCB面积的约束,互联线长/带宽以及通讯延迟也会随之增大。相对于传统内存,堆叠显存所做的改进在于将若干片DRAM颗粒垂直叠放在一起,这相当于使用同样的PCB面积布置了比过去多数倍的DRAM颗粒。不仅如此,因为楼房楼层的垂直距离短于平面延伸平房的距离,人与人之间的物理距离也比平房时缩短了许多,沟通更加便利且可以实现更大规模的并行化通讯。所以相对于传统内存,堆叠内存的联线、带宽以及延迟均拥有很大的优势。
堆叠内存结构
HBM显存的出现带来了很多与过去截然不同的存储模式,它将更多颗粒布置在了更小的面积当中,这在提升容量和带宽的同时也导致了新的问题,那就是内存控制器所面临的管理层级和管理范围有了显著的变化。突然激增的内存颗粒和并行存储链路对内存控制器提出了极大的挑战,如果依旧采用传统结构,让全部内存颗粒都去对应单一且统一的内存控制器的话,GPU芯片可能要做到巴掌大。
拥有Base Die的HBM内存(图片源自后藤弘茂blog)
为了解决这一问题,HBM显存在解决内存控制器瓶颈的过程中也引入了一级新的沟通机制,每一簇HBM显存颗粒的最底层都拥有独立的Base Die,其上集成了能够管理整簇堆叠颗粒的芯片,这些芯片将与内存控制器直接沟通,可被用来收集堆叠颗粒当中的数据、并帮助内存控制器对其实施管理。在HBM显存体系当中,内存控制器的规模不仅不会放大,甚至还会出现一定程度的缩减,它只需要面向这些Base Die当中的芯片即可,对每簇颗粒当中各层DRAM的管理将由Base Die完成。
互联的秘密——TSV
整个HBM显存体系最大的实践难点并不是内存控制体系的变动,而是互联问题的解决。堆叠之所以被称之为“堆叠”,就是因为其将若干片DRAM颗粒摞在一起放置的形式,这种堆叠方式不仅节约空间,而且能够带来更短的颗粒间距进而缩短信号传输路径及延迟,但这些颗粒不是光放在一起就能解决问题的,你还必须想办法把它们连起来才行。这个互联的过程成了困扰堆叠内存的最根本问题,直到TSV技术成熟的之后才得以解决。
意法半导体实现的TSV工艺
HBM显存所采用的TSV技术本质上就是在保证结构强度的前提下在芯片(硅)上直接垂直通孔,厂商会采用名为穿透硅的技术对DRAM颗粒的边缘或特定位置进行穿孔处理,然后以这些孔为通路进行布线并完成垂直互联。通孔过程看似简单,但技术层面的进展一直相当不顺利。无论存储还是逻辑芯片的结构及加工过程都相当复杂,这注定了芯片本身的脆弱性,想要在不影响芯片强度以及完整性的前提下在一块DRAM颗粒上打洞,而且是不止一个的孔洞,这件事儿的具体技术细节根本无需讨论,光是想想就已经很难了。这种垂直互联不仅距离更短而且延迟更低,这是HBM显存的一大优势。
复杂的垂直互联构成了堆叠内存的“楼梯”
在演化出了分别对应不同的通孔时机的via middle和via last这两大分支之后,TSV技术的发展已经日趋成熟,现代的穿透硅技术成功解决了稳定性及成本等问题。无论是先通孔的via middle还是最后通孔的via last,两种工艺都可以实现稳定的DRAM颗粒通孔及互联过程,并且能够集成到当前的300mm wafer加工工艺当中,这给堆叠内存的实现铺平了最后的道路。
丰俭由人
视堆叠方式及位置的不同,HBM显存体系可以被分为2.5D和3D两种存在形式。如果堆叠内存颗粒以及Base Die被封装在PCB上并通过普通线路与运算核心完成水平互联,这种封装模式就是2.5D,我们即将见到的堆叠内存/显存体系基本上均采用此种形式;如果堆叠内存颗粒及Base Die被直接封装在运算核心上层并通过TSV与核心直接垂直互联,这种封装模式就是3D,SoC等需要更高集成度,同时对能耗及延迟十分敏感的场合将会是这种形式的理想方向。
2.5D/3D封装堆叠内存
不同的封装形式决定了堆叠显存的应用范围
由此技术特征可知,2.5D封装是一种将堆叠显存颗粒置于PCB上的水平封装形式,在2.5D封装形式当中,显存颗粒与GPU芯片是独立且平行存在的。采用2.5D封装形式的HBM显存不可能与GPU封装在同一枚芯片内,即便封装的很近,甚至置于同一个保护盖下,两者也不可能融合成同一枚芯片。AMD所选择的,正是这种封装形式。
2.5D/3D封装堆叠内存
除了堆叠形式不同之外,堆叠内存还依标准不同而划分成了两大阵营,分别是海力士+AMD支持的HBM(High Bandwidth Memory)以及Intel支持、镁光/三星主导的HMC(Hybrid Memory Cube)联盟。
无论HBM还是HMC,在基本结构上都属于原教旨型的2.5D/3D堆叠内存,它们均采用多片DRAM+Base Die/Logic Die垂直堆叠封装的形式,可以以2.5D的形式被用于内存以及显存等场合,也可以以3D的形式与SoC芯片封装在一起。两者的主要区别体现在DRAM运行频率、总位宽、发热以及扩展性层面。相比于HMC,HBM的先期频率和带宽相对较低,但与之相对应的,HBM因此而获得了更低的工作电压,在能耗及发热表现上应该会有值得期待的表现,同时在部署时机上也具有优势。
HMC内存
按照海力士以及AMD公布的试产产品数据,HBM在作为显存出现时可以提供8通道1024bit起跳的显存位宽,搭配适当频率颗粒(等效频率在2000~3600MHz左右,约等于GDDR4的水平)时可以提供超过128GB/s,最大可至512GB/s的等效带宽,在此基础上还能实现40%的功耗下降。随着工艺的成熟稳定,HBM所能够带来的带宽数字可能会进一步提升至640GB/S甚至更高。
HBM内存
在支持情况上,HBM显存目前只有海力士和AMD明确支持,HMC则拥有包括Intel,微软,NVIDIA,ARM,IBM,HP,三星以及镁光等在内的一系列厂商所组成的联盟,海力士也包含在其中。所以以目前的状况来看,HMC可能会在未来统一堆叠内存业界,包括AMD在内的几乎所有人都将会提供支持。不过以现在这个时间点来看,能够让AMD选择的堆叠方案只有部署速度更快的HBM。
AMD的黎明之光
部署HBM显存对于AMD而言是相当明确而且重要的机会,它让AMD具备了多个非常有价值的突破节点。整个市场的格局,AN双方的竞争态势甚至是今后AMD逻辑架构的研发形式都将会因此而发生深刻的改变。
首先,在最直管的层面上,HBM显存能够带来远远超过当前GDDR5所能够提供的带宽上限,这无疑能够相当直观地提升AMD下代GPU在应对高分辨率以及高解析度材质时的性能表现。HBM显存还可以在同样的PCB面积占用量上实现翻倍甚至数倍的内存容量,而且并不会因此而导致功耗及发热的激增,这将大幅拉低存储体系的单位成本,同时减少对PCB面积的依赖。AMD下代旗舰显卡的“瘦身”,将会借由HBM显存的列装而完成。
AMD的未来希望——Fiji
接下来,源于大并行存储的特性,HBM显存需要引入了一级新的沟通机制,亦即独立于每一颗TSV颗粒最底层的Base Die,其上集成了能够管理整簇堆叠颗粒的芯片,这种二级存储管理机制的引入从本质上改变了GPU MC的结构设计。尽管显存位宽和容量均已激增,但基于堆叠显存的显存控制器的规模不仅不会如当下那样需要进行数倍的放大,甚至其整体规模和工作量还会有进一步的缩减。MC不再需要像现行结构这样直管所有DRAM以及地址,它只需要面向Base Die即可,对每簇颗粒当中各层DRAM的管理将由Base Die完成,工作模式的改变正是MC结构发生变化的最根本原因。
不同的封装形式能够进一步拓展堆叠内存的应用范围
以此为诱因,随着HBM显存的列装以及MC结构的大改,Base Die将带走相当一部分传统MC结构所进行的工作,原本核心内部的晶体管以及资源压力得以外泄,GPU架构的工作状态将发生很大的改观,传统的由后端工作所导致的能耗将会减少,GPU内部因此而获得了更多空间余量和资源余量。对于逻辑结构设计者来说,无论修改ALU团簇、任务管理机制以及cache等基本逻辑结构还是进一步放大运算单元规模都有了更充分的余地。
事实上这并不是AMD第一次拥有“以MC换资源”的机会,早在上代的Hawaii架构当中,AMD就曾经借由大幅改进MC单元的结构设计来缓解由D线压迫所导致的核心内部资源紧张问题。R9-290X的表现,可以说完全是由AMD在MC结构上的华丽转身所带来的。如今,更为彻底的一次转身的机会摆在了AMD面签,如果能够抓住并善加利用,AMD GPU架构的未来无疑将会拥有更多的希望。
Hawaii身上所体现的“取舍的艺术”便来自MC结构的改进
除此之外,HBM显存还能够通过减少互联线长明显降低了信号延迟,这将对显存体系的性能提升同样能产生推动作用。所有受延迟因素影响的逻辑运算单元都将会因此而面临新的提升。更大的内存带宽搭配更低的延迟不仅能够给CPU/GPU的更高效运算提供保障,还会深刻的影响逻辑结构的研发方向。未来一直两个产品周期内,我们将会因此而迎来CPU/GPU架构及性能的新一轮革命。
最关键的是,除了上述这些经由技术改变所直接导致的机遇之外,HBM显存的列装还带来了一个非常有趣而且积极正面的“隐性促进”——它再次唤醒了很多已经淡出显卡圈的玩家们的热情和关注。全新的显存形式可以说是近三年来最容易被人理解的重大技术革新,单纯从营造新鲜感和冲击感的角度来讲,HBM显存无疑是相当出色的,它所带来的提升直观而且贴近公众最容易理解的部分,即便它最终没有为AMD带来足够颠覆性的前进,光是再次唤醒大家对显卡的热情就够了。
新的革命,将从这里开始
毋庸置疑,HBM显存是一次显卡的重要革命,在经历了多年单纯的速度/频率/信号传输模式发展之后,显存终于从2维走向了3维空间,实现了存储模式的本质变化,我们甚至可以认为HBM显存是显存体系发展史上的“第一次直立行走”。可以预见的是,只要抓住这次机会,充分利用HBM显存所带来的各种有利要素,AMD肯定可以为自己的未来打开一扇明亮的大门。甚至整个显卡业界,都将会因此而迎来崭新的局面。我们
本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
What’s Next For High Bandwidth Memory
GPU大缺货,背后的真正原因!
HBM,存储芯片爆了!( 最新机构纪要合集)
RX Vega的8GB显存够用吗?AMD官方详解HBM 2及显存架构
从显存看显卡发展,当年的神器你用过几个?
整合显存是未来 从Intel及NVIDIA说起
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服