深度学习的异构加速技术,芯片上视觉任务的神

2019-09-16 作者:互联网   |   浏览(58)

原标题:干货 | 地平线:面向低功耗 AI 芯片上视觉任务的神经网络设计 | 职播间第 2 期

欢迎大家前往腾讯云社区,获取更多腾讯海量技术实践干货哦~

AI 科技评论按:随着这几年神经网络和硬件(GPU)的迅猛发展,深度学习在包括互联网,金融,驾驶,安防等很多行业都得到了广泛的应用。然而在实际部署的时候,许多场景例如无人驾驶,安防等对设备在功耗,成本,散热性等方面都有额外的限制,导致了无法大规模应用深度学习解决方案。

作者简介:kevinxiaoyu,高级研究员,隶属腾讯TEG-架构平台部,主要研究方向为深度学习异构计算与硬件加速、FPGA云、高速视觉感知等方向的构架设计和优化。“深度学习的异构加速技术”系列共有三篇文章,主要在技术层面,对学术界和工业界异构加速的构架演进进行分析。

近日,在雷锋网 AI 研习社第 2 期职播间上,地平线初创人员黄李超就介绍了 AI 芯片的背景以及怎么从算法角度去设计适合嵌入式平台高效的神经网络模型,并应用于视觉任务中。之后地平线的 HR 也进行了招聘宣讲,并为大家进行了招聘解读。公开课回放视频网址:

一、综述

在“深度学习的异构加速技术(一)”一文所述的AI加速平台的第一阶段中,无论在FPGA还是ASIC设计,无论针对CNN还是LSTM与MLP,无论应用在嵌入式终端还是云端(TPU1),其构架的核心都是解决带宽问题。不解决带宽问题,空有计算能力,利用率却提不上来。就像一个8核CPU,若其中一个内核就将内存带宽100%占用,导致其他7个核读不到计算所需的数据,将始终处于闲置状态。对此,学术界涌现了大量文献从不同角度对带宽问题进行讨论,可归纳为以下几种:

A、流式处理与数据复用 
B、片上存储及其优化 
C、位宽压缩 
D、稀疏优化 
E、片上模型与芯片级互联 
F、新兴技术:二值网络、忆阻器与HBM

下面对上述方法如何解决带宽问题,分别论述。

黄李超:本科毕业于中山大学,在帝国理工硕士毕业之后于 2014 年加入了百度深度学习研究院,期间研发了最早的基于全卷积网络的目标检测算法——DenseBox,并在 KITTI、FDDB 等特定物体检测数据集上长期保持第一名。 2015 年,他作为初创人员加入地平线,现研究方向包括深度学习系统研发,以及计算机视觉中物体检测,语义分割等方向。

二、不同招式的PK与演进

分享主题:面向低功耗 AI 芯片上视觉任务的神经网络设计

2.1、流式处理与数据复用

流式处理是应用于FPGA和专用ASIC高效运算结构,其核心是基于流水线的指令并行,即当前处理单元的结果不写回缓存,而直接作为下一级处理单元的输入,取代了当前处理单元结果回写和下一处理单元数据读取的存储器访问。多核CPU和GPU多采用数据并行构架,与流式处理构架的对比如图2.1所示。图左为数据并行的处理方式,所有运算单元受控于一个控制模块,统一从缓存中取数据进行计算,计算单元之间不存在数据交互。当众多计算单元同时读取缓存,将产生带宽竞争造成瓶颈;图右为基于指令并行的二维流式处理,即每个运算单元都有独立的指令(即定制运算逻辑),数据从相邻计算单元输入,并输出到下一级计算单元,只有与存储相邻的一侧存在数据交互,从而大大降低了对存储带宽的依赖,代表为FPGA和专用ASIC的定制化设计。

奥门金沙手机娱乐网址 1

图2.1 数据并行与流式处理的对比

奥门金沙手机娱乐网址 2

图2.2 一维脉动阵列(上)TPU中的二维脉动阵列(下)

当流式处理中各个处理单元(Processing Element, PE)具有相同结构时,有一个专属名称——脉动矩阵,一维的脉动矩阵如图2.2(上)所示。当一个处理单元从存储器读取数据处理,经过若干同构PE处理后写回到存储器。对存储器而言,只需满足单PE的读写带宽即可,降低了数据存取频率。脉动架构的思想很简单:让数据尽量在处理单元中多流动一段时间。当一个数据从第一个PE输入直至到达最后一个PE,它已经被处理了多次。因此,它可以在小带宽下实现高吞吐[1]。

TPU中采用的二维脉动阵列如图2.2(下)所示,用以实现矩阵-矩阵乘和向量-矩阵乘。数据分别从Cell阵列的上侧和左侧流入,从下侧流出。每个Cell是一个乘加单元,每个周期完成一次乘法和一次加法。当使用该脉动阵列做卷积运算时,二维FeatureMap需要展开成一维向量,同时Kernel经过旋转,而后输入,如TPU专利中的图2.3所示。

奥门金沙手机娱乐网址 3

图2.3 TPU专利中,脉动阵列在卷积运算时的数据重排

在极大增加数据复用的同时,脉动阵列也有两个缺点,即数据重排和规模适配。第一,脉动矩阵主要实现向量/矩阵乘法。以CNN计算为例,CNN数据进入脉动阵列需要调整好形式,并且严格遵循时钟节拍和空间顺序输入。数据重排的额外操作增加了复杂性,据推测由软件驱动实现。第二,在数据流经整个阵列后,才能输出结果。当计算的向量中元素过少,脉动阵列规模过大时,不仅难以将阵列中的每个单元都利用起来,数据的导入和导出延时也随着尺寸扩大而增加,降低了计算效率。因此在确定脉动阵列的规模时,在考虑面积、能耗、峰值计算能力的同时,还要考虑典型应用下的效率。

寒武纪的DianNao系列芯片构架也采用了流式处理的乘加树(DianNao[2]、DaDianNao[3]、PuDianNao[4])和类脉动阵列的结构(ShiDianNao[5])。为了兼容小规模的矩阵运算并保持较高的利用率,同时更好的支持并发的多任务,DaDianNao和PuDianNao降低了计算粒度,采用了双层细分的运算架构,即在顶层的PE阵列中,每个PE由更小规模的多个运算单元构成,更细致的任务分配和调度虽然占用了额外的逻辑,但有利于保证每个运算单元的计算效率并控制功耗,如图2.4所示。

奥门金沙手机娱乐网址 4

奥门金沙手机娱乐网址 5

奥门金沙手机娱乐网址 6

奥门金沙手机娱乐网址 7

图2.4 基于流式处理的计算单元组织结构:从上到下依次为DianNao、DaDianNao整体框架与处理单元、ShiDianNao、PuDianNao的总体框图和每个MLU处理单元的内部结构

除了采用流式处理减少PE对输入带宽的依赖,还可通过计算中的数据复用降低带宽,CNN中的复用方式如图2.5所示。

(a) (b) (c)

图2.5 CNN中的数据复用

在图2.5 的(a) (b)(c)分别对应卷积核的整张FeatureMap复用、一组FeatureMap对多组Filter的复用、Filter通过增加BatchSize而复用。当上述三种方式结合使用时,可极大提升数据复用率,这也是TPU在处理CNN时逼近峰值算力,达到86Tops/s的原因之一。

分享提纲

2.2、片上存储及其优化

片外存储器(如DDR等)具有容量大的优势,然而在ASIC和FPGA设计中,DRAM的使用常存在两个问题,一是带宽不足,二是功耗过大。由于需要高频驱动IO,DRAM的访问能耗通常是单位运算的200倍以上,DRAM访问与其它操作的能耗对比如图2.6所示。

奥门金沙手机娱乐网址 8

奥门金沙手机娱乐网址 9

图2.6 片外DRAM访问的能耗开销

为了解决带宽和能耗问题,通常采用两种方式:片上缓存和临近存储。

1)增加片上缓存,有利于在更多情况下增加数据复用。例如矩阵A和B相乘时,若B能全部存入缓存,则仅加载B一次,复用次数等价于A的行数;若缓存不够,则需多次加载,增加带宽消耗。当片上缓存足够大,可以存下所有计算所需的数据,或通过主控处理器按需发送数据,即可放弃片外DRAM,极大降低功耗和板卡面积,这也是半导体顶会ISSCC2016中大部分AI ASIC论文采用的方案。

2)临近存储。当从片上缓存加载数据时,若采用单一的片上存储,其接口经常不能满足带宽的需求,集中的存储和较长的读写路径也会增加延迟。此时可以增加片上存储的数量并将其分布于计算单元数据接口的临近位置,使计算单元可以独享各自的存储器带宽。随着数量的增加,片上存储的总带宽也随之增加,如图2.7所示。

奥门金沙手机娱乐网址 10

奥门金沙手机娱乐网址 11

图2.7 TPU(上)和DianNao(下)的片上存储器分布

图2.7中的脉动阵列和乘加树都是规模较大的计算单元,属于粗粒度。当采用细粒度计算单元的结构时,如图2.8所示,可采用分层级存储方式,即除了在片上配置共享缓存之外,在每个计算单元中也配置专属存储器,使计算单元独享其带宽并减少对共享缓存的访问。寒武纪的DaDianNao采用也是分层级存储,共三层构架,分别配置了中央存储器,四块环形分布存储器,和输入输出存储器,如图2.9所示,极大增强了片上的存储深度和带宽,辅以芯片间的互联总线,可将整个模型放在片上,实现片上Training和Inference。

奥门金沙手机娱乐网址 12

奥门金沙手机娱乐网址 13

图2.8 细粒度计算单元与邻近存储,上图中深红色为存储器

奥门金沙手机娱乐网址 14

图2.9DaDianNao的计算单元与存储器分布

  1. 介绍当前 AI 芯片概况,包括现有的深度学习硬件发展情况,以及为何要为神经网络去设计专用芯片。
  2. 从算法角度,讲解如何设计高性能的神经网络结构,使其既满足嵌入式设备的低功耗要求,又满足应用场景下的性能要求。
  3. 分享高性价比的神经网络,在计算机视觉领域的应用,包括实时的物体检测,语义分割等。
  4. 地平线 2019 年最全的校招政策解读。

2.3、位宽压缩

在两年前,深度学习的定制处理器构架还处于初始阶段,在Inference中继承了CPU和GPU的32bit浮点量化,每次乘法运算不仅需要12字节的读写(8bit量化时为3字节),32位运算单元占用较大的片上面积,增加了能耗和带宽消耗。PuDianNao的论文中指出[4],16bit乘法器在ASIC占用面积上是32bit乘法器的1/5,即在相同尺寸的面积上可布局5倍数量的乘法器。当使用8bit时将获得更高收益。因此,学术界孜孜不倦的追求更低的量化精度,从16bit,到自定义的9bit[6],8bit,甚至更激进的2bit和1bit的二值网络[7-8]。当高位宽转为低位宽的量化时,不可避免的带来精度损失。对此,可通过量化模式、表征范围的调整、编码等方式、甚至增加模型深度(二值网络)来降低对精度的影响,其中量化模式、表征范围的调整方法如图2.10 所示。

(a) (b)

图2.10 (a) 几种量化模式,和 (b) 动态位宽调整

图2.10 (a) 中为不同的量化模式,同样的8bit,可根据模型中数值的分布情况采用为线性量化、Log量化、或非线性量化表示。图2.10 (b)是Jiantao Qiu等提出的动态位宽调整[9],使8bit的量化在不同层之间使用不同的偏移量和整数、小数分配,从而在最小量化误差的约束下动态调整量化范围和精度,结合重训练,可大幅降低低位宽带来的影响。在CNN模型中的测试结果见下表:

奥门金沙手机娱乐网址 15

低位宽意味着在处理相同的任务时更小的算力、带宽和功耗消耗。在算力不变的前提下,成倍的增加吞吐。对于数据中心,可大幅度降低运维成本,使用更少的服务器或更廉价的计算平台即可满足需求(TPU的数据类型即为8/16bit);对于更注重能耗比和小型化嵌入式前端,可大幅降低成本。目前,8bit的量化精度已经得到工业界认可,GPU也宣布在硬件上提供对8bit的支持,从而将计算性能提高近4倍,如图2.11所示。FPGA巨头Xilinx也在AI加速的官方文档中论述了8bit量化的可行性[10]。

奥门金沙手机娱乐网址 16

图2.11 NVIDIA对int8的支持

雷锋网 AI 研习社将其分享内容整理如下:

2.4、稀疏优化

上述的论述主要针对稠密矩阵计算。在实际应用中,有很大一部分AI应用和矩阵运算属于稀疏运算,其主要来源于两个方面:

1) 算法本身存在稀疏。如NLP(Natural Language Processing,自然语言处理)、推荐算法等应用中,通常一个几万维的向量中,仅有几个非零元素,统统按照稠密矩阵处理显然得不偿失。

2) 算法改造成稀疏。为了增加普适性,深度学习的模型本身存在冗余。在针对某一应用完成训练后,很多参数的贡献极低,可以通过剪枝和重新训练将模型转化为稀疏。如深鉴科技的韩松在FPGA2017上提出针对LSTM的模型剪枝和专用的稀疏化处理架构,如图2.12 所示[11]。

奥门金沙手机娱乐网址 17

图2.12 LSTM模型剪枝比例与精度(左)和稀疏处理构架(右)

图2.12 左图,为LSTM模型剪枝掉90%的参数后,基本没有精度损失,模型得到了极大的稀疏化。图右侧为针对稀疏的FPGA处理构架,将处理的PE之间进行异步调度,在每个PE的数据入口使用独立的数据缓存,仅将非零元素压入参与计算,获得了3倍于Pascal Titan X的性能收益和11.5倍的功耗收益。稀疏化并不仅限于LSTM,在CNN上也有对应的应用。

与之对应的,寒武纪也开发了针对稀疏神经网络的Cambricon-X[12]处理器,如图2.13所示。类似的,Cambricon-X也在每个PE的输入端口加入了Indexing的步骤,将非零元素筛选出后再输入进PE。与深鉴不同的是,Cambricon-X支持不同稀疏程度的两种indexing编码,在不同稀疏程度的模型下使用不同的编码方式,以优化带宽消耗。

奥门金沙手机娱乐网址 18

图2.13 寒武纪Cambricon-X稀疏神经网络处理器结构

可针对稀疏的优化有两个目的,一是从缓存中读入的都是有效数据从而避免大量无用的零元素占满带宽的情况,二是保证片上PE的计算效率,使每个PE的每次计算的输入都是“干货”。当模型剪枝结合稀疏处理构架,将成倍提升FPGA和ASIC的计算能力,效果显著,是异构加速的热点之一。

综上所述,稀疏化是从模型角度,从根本上减少计算量,在构架演进缺乏突破的情况下,带来的收益是构架优化所不能比拟的。尤其在结合位宽压缩后,性能提升非常显著。然而稀疏化需要根据构架特点,且会带来精度损失,需要结合模型重训练来弥补,反复调整。上述过程增加了稀疏优化的门槛,需要算法开发和硬件优化团队的联合协作。对此,深鉴科技等一些公司推出稀疏+重训练的专用工具,简化了这一过程,在大量部署的场景下,将带来相当的成本优势。

今天,我将从以下三个方面来进行分享:

2.5、片上模型与芯片级互联

为了解决带宽问题,通常的做法是增加数据复用。在每次计算的两个值中,一个是权值Weight,一个是输入Activation。如果有足够大的片上缓存,结合适当的位宽压缩方法,将所有Weight都缓存在片上,每次仅输入Activation,就可以在优化数据复用之前就将带宽减半。然而从GoogleNet50M到ResNet 150M的参数数量,在高成本的HBM普及之前,ASIC在相对面积上无法做到如此大的片上存储。而随着模型研究的不断深入,更深、参数更多的模型还会继续出现。对此,基于芯片级互联和模型拆分的处理模式,结合多片互联技术,将多组拆分层的参数配置于多个芯片上,在Inference过程中用多芯片共同完成同一任务的处理。寒武纪的DaDianNao就是实现这样的一种芯片互联结合大缓存的设计,如图2.14所示。

奥门金沙手机娱乐网址 19

图2.14DaDianNao中的存储器分布(图中蓝色部分)和多片互联时的加速能力(以GPU K20M为单位性能的比较)

为了将整个模型放在片上,DaDianNao一方面将片上缓存的容量增加到36MB(DaDianNao为36MB和4608个乘加器,TPU为28MB缓存和65536乘加器),充分保证计算单元的读写带宽,另一方面通过HT2.0实现6.4GB/s*4通道的片间通信带宽,降低数据才层与层之间传递的延迟,完全取代了片外DRAM的交互,解决带宽制约计算的问题。与之相应的,微软在Hot Chips 2017上提出将LSTM模型拆分后部署到多片FPGA,以摆脱片外存储器访问以实现Inference下的超低延迟[2]。

第一,当前 AI 芯片发展的现状。这里的 AI 芯片并不是单指狭义的 AI 专用芯片,而是指广义上包括 GPU 在内所有可以承载 AI 运算的硬件平台。

2.6、新兴技术:二值网络、忆阻器与HBM

除了采用上述方式解决带宽问题,学术界近期涌现出了两种更为激进的方法,二值网络和忆阻器;工业界在存储器技术上也有了新的突破,即HBM。

二值网络是将Weight和Activation中的一部分,甚至全部转化为1bit,将乘法简化为异或等逻辑运算,大大降低带宽,非常适合DSP资源有限而逻辑资源丰富的FPGA,以及可完全定制的ASIC。相对而言,GPU的计算单元只能以32/16/8bit为单位进行运算,即使运行二值模型,加速效果也不会比8bit模型快多少。因此,二值网络成为FPGA和ASIC在低功耗嵌入式前端应用的利器。目前二值网络的重点还在模型讨论阶段,讨论如何通过增加深度与模型调整来弥补二值后的精度损失。在简单的数据集下的效果已得到认可,如MNIST,Cifar-10等。

既然带宽成为计算瓶颈,那么有没有可能把计算放到存储器内部呢?既然计算单元临近存储的构架能提升计算效率,那么能否把计算和存储二者合一呢?忆阻器正是实现存储器内部计算的一种器件,通过电流、电压和电导的乘法关系,在输入端加入对应电压,在输出即可获得乘加结果,如图2.15所示[13]。当将电导作为可编程的Weight值,输入作为Activation,即可实现神经网络计算。目前在工艺限制下,8bit的可编程电导技术还不成熟,但在更低量化精度下尚可。将存储和计算结合,将形成一种有别于冯诺依曼体系的全新型构架,称为在存储计算(In-Memory Computing),有着巨大的想象空间。

奥门金沙手机娱乐网址 20

图2.15 忆阻器完成乘加示意图(左)与向量-矩阵运算(右)

随着工业界芯片制造技术的发展与摩尔定律的逐渐失效,简单通过提升工艺制程来在面积不变的条件下增加晶体管数量的方式已经逐渐陷入瓶颈。相应的,二维技术的局限使工艺向第三维度迈进。例如在存储领域,3D构架和片内垂直堆叠技术可在片上成倍增加缓存容量,其代表为高带宽存储器(HighBandwidth Memory,HBM)和混合存储器立方体(HybridMemory Cube,HMC)。据Intel透露,Lake Crest的片上HBM2可提供最高12倍于DDR4的带宽。目前,NVIDIAP100和V100 GPU已集成HBM2,片内带宽高达900GB/s;TPU2的片内HBM带宽为600GB/s;Xilinx集成HBM的FPGA将在18年上市。这一技术革新使得对于当前的深度学习模型,即使不采用芯片级互联方案也有望将整个模型置于片上,释放了FPGA/ASIC对片外DRAM的需求,为AI芯片发展提供巨大动力。

第二,在嵌入式设备的环境下如何设计高效的神经网络。这里我使用的案例都选自业界中比较重要的一些工作——也有一部分来自我们的地平线。同时这一节大部分的工作都已经落地到实际应用场景。

三、结语

上面的论述主要以当前学术界在AI处理器构架方面的讨论为主。然而在工业界,AI的大量需求已经在某些领域集中爆发,如云服务、大数据处理、安防、手机端应用等。甚至在一些应用中已经落地,如Google的TPU,华为的麒麟970等。AI处理器的发展和现状如何?我们下期见!

第三,算法+硬件在计算机应用上的一些成果。

参考文献

[1] 唐杉, 脉动阵列-因Google TPU获得新生.  
[2] Chen Y, Chen Y, Chen Y, et al.DianNao: a small-footprint high-throughput accelerator for ubiquitousmachine-learning[C]// International Conference on Architectural Support forProgramming Languages and Operating Systems. ACM, 2014:269-284. 
[3] Luo T, Luo T, Liu S, et al.DaDianNao: A Machine-Learning Supercomputer[C]// Ieee/acm InternationalSymposium on Microarchitecture. IEEE, 2015:609-622. 
[4] Liu D, Chen T, Liu S, et al.PuDianNao: A Polyvalent Machine Learning Accelerator[C]// TwentiethInternational Conference on Architectural Support for Programming Languages andOperating Systems. ACM, 2015:369-381. 
[5] Du Z, Fasthuber R, Chen T, et al.ShiDianNao: shifting vision processing closer to the sensor[C]// ACM/IEEE,International Symposium on Computer Architecture. IEEE, 2015:92-104. 
[6] Eric Chung, Jeremy Fowers, KalinOvtcharov, et al. Accelerating Persistent Neural Networks at Datacenter Scale.Hot Chips 2017. 
[7]奥门金沙手机娱乐网址 , Meng W, Gu Z, Zhang M, et al.Two-bit networks for deep learning on resource-constrained embedded devices[J].arXiv preprint arXiv:1701.00485, 2017. 
[8] Hubara I, Courbariaux M, SoudryD, et al. Binarized neural networks[C]//Advances in neural informationprocessing systems. 2016: 4107-4115. 
[9] Qiu J, Wang J, Yao S, et al.Going deeper with embedded fpga platform for convolutional neuralnetwork[C]//Proceedings of the 2016 ACM/SIGDA International Symposium onField-Programmable Gate Arrays. ACM, 2016: 26-35. 
[10] Xilinx, Deep Learningwith INT8Optimizationon Xilinx Devices,  
[11] Han S, Kang J, Mao H, et al.Ese: Efficient speech recognition engine with compressed lstm on fpga[J]. arXivpreprint arXiv:1612.00694, 2016. 
[12] Zhang S, Du Z, Zhang L, et al. Cambricon-X: An accelerator for sparseneural networks[C]// Ieee/acm International Symposium on Microarchitecture.IEEE Computer Society, 2016:1-12. 
[13] Shafiee A, Nag A, MuralimanoharN, et al. ISAAC: A convolutional neural network accelerator with in-situ analogarithmetic in crossbars[C]//Proceedings of the 43rd International Symposium onComputer Architecture. IEEE Press, 2016: 14-26.

介绍 AI 芯片之前,先介绍 AI 的大环境。大家都知道现在是机器学习时代,其中最具代表性的是深度学习,它大大促进图像、语音、自然语言处理方面的发展,同时也给很多行业带来了社会级的影响。例如在社交网络的推荐系统、自动驾驶、医疗图像等领域,都用到了神经图像技术,其中,在图像医疗,机器的准确率甚至大大超过了人类。

相关阅读

深度学习的异构加速技术(一):AI 需要一个多大的“心脏”? 
深度学习的异构加速技术(三):互联网巨头们“心水”这些 AI 计算平台

此文已由作者授权腾讯云技术社区发布,转载请注明原文出处

原文链接:https://cloud.tencent.com/community/article/581797

奥门金沙手机娱乐网址 21

从整个互联网发展的情况来看,我们先后经历了 PC 互联网、移动互联网时代,而接下来我们最有可能进入一个智能万物互联的时代。PC 时代主要解决信息的联通问题,移动互联网时代则让通讯设备小型化,让信息联通变得触手可及。我相信在未来,所有的设备除了能够互联之外,还能拥有智能:即设备能够自主感知环节,并且能根据环境做出判断和控制。现在我们其实看到了很多未来的雏形,比如无人车、无人机、人脸开卡支付等等。不过,要让所有设备都拥有智能,自然会对人工智能这一方向提出更多要求,迎接更多的挑战,包括算法、硬件等方面。

大规模运用深度学习需要去应对很多挑战。首先从算法和软件上看,如果把 AI 和深度学习用在某个行业中,需要对这个行业的场景有深入的理解。场景中也有很多痛点需要去解决,但是是否一定要用深度学习去解决呢?在特定场景下,往往需要具备能耗比、性价比的解决方案,而不是一个仅仅能够刷数据集的算法。随着这几年算法的快速发展,人们对 AI 的期望也在不断提高,算法的发展是否能跟上大家的期望,这也是一个问题。

从硬件上看,当前硬件的发展已经难以匹配当前深度学习对于计算资源的需求,特别是在一些应用场景中,成本和功耗都是受限的,缺少低成本、低功耗、高性能的硬件平台直接制约了 AI 技术和深度学习方案的大规模应用,这也是我们地平线致力于解决的行业难题。

当前 AI 芯片发展的现状

接下来我们介绍一下 AI 硬件的一些情况。大家都知道,最早神经网络是运行在 CPU 上的。但是 CPU 并不能非常高效地去运行神经网络,因为 CPU 是为通用计算而设计的,而且其计算方式以串行为主——虽然一些运行指令可以同时处理较多数据。除此之外,CPU 在设计上也花了很多精力去优化多级缓存,使得程序能够相对高效地读写数据,但是这种缓存设计对神经网络来讲并没有太大的必要。另外,CPU 上也做了很多其他优化,如分支预测等,这些都是让通用的运算更加高效,但是对神经网络来说都是额外的开销。所以神经网络适合用什么样的硬件结构呢?

奥门金沙手机娱乐网址 22

在讲这个问题之前,我们先从神经网络的特性说起:

第一,神经网络的运算具有大规模的并行性,要求每个神经元都可以独立并行计算;

第二,神经网络运算的基本单元主要还是相乘累加,这就要求硬件必须有足够多的运算单元;

第三,神经元每一次运算都会产生很多中间结果,这些中间结果最后并不会复用,这就要求设备有足够的带宽。一个理想的设备,它应该有就比较大的片上存储,并且带宽也要足够,这样才能放下网络的权重和网络的输入;

第四,由于神经网络对计算的精度并没有那么敏感,所以在硬件设计的时候可以使用更简单的数据类型,比如整型或者 16bit 的浮点数。因此,这几年大家使用的神经网络解决方案,都是 CPU+比较适合于神经网络运算的硬件(可以是 GPU、DSP、FPGA、TPU、ASIC 等)组成异构的计算平台。

最常用的方案是 CPU+GPU,这个是深度学习训练的一个标配,好处是算力和吞吐量大,而且编程比较容易,但是它存在的问题是,GPU 的功耗比较高,延迟比较大,特别是在应用部署领域的场景下,几乎没有人会用服务器级别的 GPU。

应用场景下用的更多的方案是 FPGA 或者 DSP,它们功耗比 GPU 低很多,但是相对的开发成本较大。DSP 依赖专用的指令集,它也会随着 DSP 的型号变化有所差异。FPGA 则是用硬件语言去开发,开发难度会更大。其实也有一起企业会用 CPU+FPGA 去搭建训练平台,来缓解 GPU 训练部署的功耗问题。

虽然刚刚提了很多神经网络加速的解决方案,但是最合适的还是 CPU+专用芯片。我们需要专用 AI 芯片的主要原因是: 虽然现在的硬件工艺不断在发展,但是发展的速度很难满足深度学习对计算力的需求。其中,最重要有两点:

第一,过去人们认为晶体管的尺寸变小,功耗也会变小,所以在相同面积下,它的功耗能保持基本不变,但其实这条定律在 2006 年的时候就已经终结了

第二点,我们熟悉的摩尔定律其实在这几年也已经终结了。

我们可以看到芯片在这几年工艺的发展变得越来越慢,因此我们需要依靠专门的芯片架构去提升神经网络对计算平台的需求。

奥门金沙手机娱乐网址 23

最著名的的一个例子就是 Google 的 TPU,第一版在 2013 年开始开发,历时大约 15 个月。TPU 里面使用了大量乘法单元,有 256*256 个 8 位的乘法器;片上有 28MB 的缓存,能够存储网络的参数和输入。同时,TPU 上的数据和指令经过 PCN 总线一起发过来,然后经过片上内存重新排布,最后计算完放回缓冲区,最后直接输出。第一版 TPU 有 92TOPS 的运算能力,但是只针对于神经网络的前向预测,支持的网络类型也很有限,主要以多层感知器为主。

而在第二版的 TPU 里面,已经能够支持训练、预测,也能够使用浮点数进行训练,单个 TPU 就有 45TFLOPS 的算力,比 GPU 要大得多。

奥门金沙手机娱乐网址 24

其实我们地平线也研发了专用的 AI 芯片,叫做 BPU,第一代从 2015 年开始设计,到 2017 年最终流片回来,有两个系列——旭日和征程系列,都针对图像和视频任务的计算,包括图像分类、物体检测、在线跟踪等,作为一个神经网络协处理器,侧重于嵌入式的高性能、低功耗、低成本的方案。

奥门金沙手机娱乐网址 25

比较值得一提的是,我们在我们的 BPU 架构上设计了弹性的 Tensor Core,它能够把图像计算所需要的基本单元,常用操作例如卷积、Pooling 等硬件化,非常高效地去执行这些操作。中间通过数据路由桥(Data Routing Bridge)从片上读取数据,并负责数据的传输和调度,同时,整个数据存储资源和计算资源都可以通过编辑器输出的指令来执行调度,从而实现更灵活地算法,包括各种类型的模型结构以及不同的任务。

总的来说,CPU+专用硬件是当前神经网络加速的一个较好的解决方案。针对专用硬件,我们可以根据功耗、开发容易度和灵活性进行排序,其能耗跟其他两者(开发容易度和灵活性)是相互矛盾的——芯片的能效比非常高,但是它的开发难度和灵活度最低。

如何设计高效的神经网络

说了这么多硬件知识,接下来我们讨论怎么样从算法角度,也就是从神经网络设计的角度去谈怎么加速神经网络。相信这个也是大家比较关心的问题。

我们先看 AI 解决方案,它从数据处理的方式可以分为云端 AI 和前端 AI。云端 AI 是说我们把计算放在远程服务器上去执行,然后把结果传到本地,这个就要求设备能够时刻连接网络。前端 AI 是指设备本身就能够进行计算,不需要联网,其在安全性、实时性、适用性都会比云端 AI 更有优势,而有一些场景下,也只能使用嵌入式的前端 AI 去解决。

嵌入式前端的场景落地难点在于功耗、成本和算力都是有限的。以网络摄像头即 IP Camera 为例,它通过网线供电,所以功耗只有 12.5 瓦,而常用的嵌入式 GPU——Nvidia TX2,为 10-15 瓦。另外这个 TX2 虽然在计算资源、算力方面都比较强,能达到 1.5T,但它的价格是 400 美元,对于很多嵌入式方案来说都是不可接受的。因此要做好前端嵌入式方案,我们需要在给定的功耗、算力下,最大限度地去优化算法和神经网络模型,达到符合场景落地的需求。

奥门金沙手机娱乐网址 26

我们加速神经网络的最终目标是:让网络在保持不错的性能下,尽量去降低计算代价和带宽需求。常用的一些方法有:网络量化、网络减支和参数共享、知识蒸馏以及模型结构优化,其中,量化和模型结构优化是目前看来最有效的方式,在业界也得到比较广泛的应用。接下来会重点讲一下这几个方法。

第一个是量化,它是指将连续的变量通过近似从而离散化。其实在计算机中,所有的数值表示都是离散化的,包括浮点数等,但是神经网络中的量化,是指用更低 bit 的数字去运行神经网络,而是不是直接使用 32bit 的浮点数(去运行神经网络)。近几年的一些研究发现,其实数值表达的精度对神经网络并没有太大的影响,所以常用的做法是使用 16bit 的浮点数去代替 32bit 的浮点数来进行计算,包括训练和前项预测。这个在 GPU 以及 Google 的 TPU 第二代中已经被广泛采用。此外,我们甚至发现,用半精度浮点数去训练数据,有时候还能得到更好的识别性能。实际上,量化本身就是对数据集正则化的一种方式,可以增加模型的泛化能力。

奥门金沙手机娱乐网址 27

此外,我们还可以将数据精度进行进一步压缩使用,将 8 bit 的整数作为计算的计算单元,包括训练和前项预测,这样带宽就只有 32bit 浮点数的四分之一,这类方法近年来也有不少工作,且已被业界所采用,比如 Tensorflow Lite 已经支持训练时模拟 8bit 整数的运算,部署时真正采用 8 bit 整数去代替,其在浮点和图像分类的性能上相当。我们地平线也有类似的工作,训练工具也是用 Int 8 bit 去训练、预测,并且我们的芯片支持 MXNet 和 TensorFlow 框架训练出来的模型。

能不能把精度压得更低呢,4 bit、2bit 甚至 1 bit?也是有的,但是会带来精度的极大损失,所以没被采用。

量化神经网络模型分为神经网络的权重量化、神经网络特征的量化。权重量化对于结果输出的损失比较小,特征量化其实对模型的输出损失会比较大,另外,大模型和小模型的量化造成的损失也不一样,大模型如 VGG16、AlexNet 这种网络模型,量化后几乎没有损失;而小模型则会有一些损失。现在 8bit 参数和特征量化可以说是一个比较成熟的方案,基本上可以做到跟浮点一样好,并且对硬件也更加友好。下面这个表,是在 Image Net 数据集上的进行的量化结果的评测,也是 Google Tensorflow Lite 的量化方案与我们地平线内部的量化方案的一个对比。

奥门金沙手机娱乐网址 28

我们可以看到,无论是哪一家的方案,损失其实都非常小,其中,小模型 MobileNet 0.25 在 Image Net 的损失方面,Google 在 1.6% 左右,而我们的量化方案能够维持在 0.5% 以内。同时我们这个量化方案在 2016 年就已经成熟了,而 Google 的去年才放出来,从这个角度上讲,我们这方面在业界内是领先的。

除了量化,模型加速还可以通过模型剪枝和参数共享实现。一个典型的案例就是韩松博士的代表性工作——Deep Compression。减支可以是对整个卷积核、卷积核中的某些通道以及卷积核内部任意权重的剪枝,这里就不多说,大家有兴趣可以去看一下原论文。

奥门金沙手机娱乐网址 29

与网络量化相比,剪枝和参数共享从应用角度上来看,并非一个好的解决方案。因为关于剪枝方面的研究,现在这些论文在大模型上做的比较多,所以在大模型上效果比较好,但是在小模型上的损失比较大,当然我们这里说的小模型是比 MobileNet 等模型更小的一些模型。另外,剪枝所带来的数据稀疏(任意结构稀疏),通常需要一个明显的稀疏比例才能带来一个实质性的的加速。结构化的稀疏加速比相对更容易达到,但是结构化的稀疏比较难训练。同时从硬件角度上讲,如果要高效地运行稀疏化的网络结构或者带共享的网络,就要专门设计硬件去支持它,而这个开发成本也比较高。

知识蒸馏也是很常用的压缩模型方法,它的思想很想简单,用一个小模型去学习一个大模型,从而让小模型也能实现大模型的效果,大模型在这里一般叫 Teacher net,小模型叫 Student net,学习的目标包括最终输出层,网络中间的特征结果,以及网络的连接方式等。知识蒸馏本质上是一种迁移学习,只能起到锦上添花的作用,比直接用数据去训练小模型的效果要好。

奥门金沙手机娱乐网址 30

最后讲一讲模型结构优化,它是对模型加速最有效的方式。下图可以看到从最初的 AlexNet 到今年的 MobileNetV2,参数已经从原来的 240MB 缩小到 35MB,模型的计算量也有了一定的减少,但是在图像分类的准确率上,从 57% 提到到了 75%,模型结构优化最直接的方式就是,有经验的工程师去探索小模型结构,而这些年来也有通过机器去进行搜索模型结构的工作。

奥门金沙手机娱乐网址 31

接下来讲一下在模型结构优化中,怎么去设计一个高效的神经网络结构,它需要遵循的一些基本原则。

奥门金沙手机娱乐网址 32

本文由奥门金沙网址发布于互联网,转载请注明出处:深度学习的异构加速技术,芯片上视觉任务的神

关键词: