(深度)AI的深刻变革:云和端的再平衡,智能终端

11/17

投资要点

 

 区别于市场的观点:当所有分析师都在谈论“人工智能+”的时候,我们还是从AI带来的最深层次的IT产业变革来寻找投资机会。IT架构的深层次变化,其意义远大于去分析所谓的“AI+”。

 

人工智能时代终端硬件智能选择。AI时代算法迭代制约深度学习能力发展,底层基础技术的计算能力大大提高使得算法不断创新,GPU集群就是这类基础体系之一。以深度学习训练为目标的GPU集群在数据量快速积累的前提下,深度学习算法模型创新加速,同时好的算法模型能够以硬件FPGA和ASIC方式在应用中加速,形成一个智能迭代正循环。因此GPU集群的算法创新迭代以及全能型芯片FPGA和低功耗ASIC都是人工智能对基础信息架构的智能选择。

 

计算存储融合加速人工智能应用。计算、存储和网络融合的关键是各配件性能接近,高速存储的发展补全了高速计算单元最后一块拼图。3DNAND和NVMe大大提高了带宽和降低读写延时。3D-Xpoint等新型存储产品可能使得计算和内存之间传统传输方式打破。新的神经网络芯片架构突破冯诺依曼架构瓶颈,计算存储高度融合将为类人脑神经单元方式提供可能,人工智能的应用目标更为明确,即如何找到目标而不是保存目标的特征。

 

终端智能化成为未来趋势。相比传统终端更多是数据采集和传输,智能终端对于特征数据的抓取和数据预处理能力大大提高。随着智能芯片和算法的升级,其自身具备更多提取特征值和压缩的功能,为数据查找和传输降低门槛。现在各行各业都看到了未来人工智能化的趋势,尤其是安防、无人驾驶、可穿戴设备、智能家居、智能机器人等。随着国内“智慧城市”、“平安城市”的不断建设,安防领域将会走在人工智能的前列。

 

AI时代计算存储解决在边缘终端。随着高速计算单元和大容量闪存在终端的配置,智能终端将具有更强计算、存储、数据压缩能力,这一趋势将减少云计算通用处理器和网络传输带宽的压力,为未来物联网的发展做好铺垫。

 

风险提示。1. 人工智能应用推进不达预期;2.智能终端下游需求不足;3技术路线发生重大变化。

 

1 人工智能时代终端的智能选择

 

终端设备一路走来经历了单片机、PC机、ARM、智能手机和平板的时代,语言和算法也从简单汇编、C语言、Java发展到了神经网络算法阶段,现在的智能终端已经在芯片和存储的发展推动下具有了强大的算力,GPU/FPGA/ASIC都将越来越多地应用于终端芯片,闪存的快速发展也使得终端存储的容量和性能更优。未来我们看到的摄像头、车载电子、智能家居或许在外形上和从前没有发生太大的变化,但其底层基础信息架构和深度学习的能力可能已经发生变革。

 

1.1   英伟达:荣耀背后的厚积薄发

 

1.1.1        英伟达的爆发

 

英伟达近日公布截至2017年4月30日的2018年第一财季季报,财报显示,英伟达营收19.4亿美元,同比增长48.4%,净利润5.07亿美元,同比增长144%。每股收益0.85美元,比去年同期增长126%。英伟达第一财季业绩远超预期,第二财季展望也非常乐观。NVIDIA(英伟达)创立于1993年,总部位于美国加州,是享有盛名的智能芯片厂商,在本轮人工智能的浪潮中,微软、谷歌、亚马逊、特斯拉以及大大小小的AI公司几乎都在使用英伟达的AI芯片。2015年9月起,其股价一路高歌猛进,至今已经翻了五倍以上。

 

1.1.2 英伟达的转型之路:在挫折中快速发展

         1993年英伟达成立,旨在制造速度更快,能产出更真实画面的游戏特制芯片。当时联合创始人黄仁勋、Chris Malachowsky以及CurtisPriem看到了刚刚兴起的游戏专用图像处理器市场,研发专用芯片去加速电子游戏中的图像渲染速度,提高玩家的游戏体验。两年之后,英伟达推出首款游戏主机加速器NV1。直到今天,这项业务依然是英伟达营收的重要组成部分。

        1999年推出GPU,但在当时计算能力制约着深度学习的发展。GPU可以用来加速图像处理速度以提高游戏中的玩家体验,同时,强大的计算能力也有着通用计算的潜力,比如可以应用到深度学习等对计算能力要求很高的领域。深度学习最早兴起于20世纪60年代,也被称作神经网络,是机器学习的一个分支,它可以用来进行语音识别以及图像识别、图像分类等。但是由于计算精度严重依赖于网络的层数或者说复杂度,网络越复杂,训练样本即数据输入越多,迭代计算次数越多,计算结果的精度越高,所以对计算能力有着很高的要求。当时的计算能力无法满足深度学习的要求,所以深度学习的发展一直没有很大的突破。

 

        GPU 加速计算是指同时利用图形处理器 (GPU) 和 CPU,加快科学、分析、工程、消费和企业应用程序的运行速度。GPU 能够使从汽车、手机和平板电脑到无人机和机器人等平台的应用程序加速运行。

        2006年,英伟达发布了CUDA编程工具包,研究人员可以以更快更廉价的方式开发深度学习模型。为了使得用于做3D渲染的GPU可以应用在通用计算领域,英伟达推出了CUDA(Compute Unified DeviceArchitecture)技术。CUDA框架使得GPU可以通过更加方便高效的接口和开发者进行交互,开发者就可以充分利用GPU的运算资源。自此之后,英伟达的所有GPU都逐步支持CUDA。

        CUDA(统一计算设备架构)既是一个并行计算平台,又是一种编程模型,可利用图形处理器 (GPU) 的能力,显著提高计算性能。自推出以来,CUDA 已被广泛部署于数千种应用程序,应用领域包括天文学、生物学、化学、物理学、数据挖掘、制造业、金融以及其他计算密集型领域。

        2010年,在深度学习发展史上发生了具有里程碑意义的事件:斯坦福的软件语言学教授吴恩达(Andrew Ng)会见了Google当时的 CEO ,决定开发Google Brain(深度学习+GPU)。在这样一个事件之后,不仅互联网巨头们纷纷开始布局人工智能与深度学习,AI逐渐渗透到了各个领域。基于深层学习,英伟达持续优化其硬件并始终保持良好的市场份额。

在挫折中快速发展。回顾英伟达的发展历程,GPU行业中形成过与ATI两家鼎立的局面,也因为技术原因与微软合作失败而遭到微软和英特尔巨头围剿的艰难时光;不断革新技术,推出CUDA(统一计算设备)架构,也曾因为竞争对手的相似解决方案导致产品失败。2009年以来,基于CUDA的GPU在高性能计算领域威力凸显,人工智能在通用GPU下实现重大突破,带来大量客户。英伟达继续布局CUDA软件生态系统,业务开始爆发。2016年,英伟达发布Pascal架构的Tesla芯片,在GPU市场份额达到70%,应用层重点布局自动驾驶。可以看出,英伟达的发展道路并不是一帆风顺的,有挫折有危机也伴随着机遇。现在之所以处在AI大市场的中心正是因为英伟达一直以来坚持对GPU+CUDA的布局,坚定的看好GPU的计算能力,迎来了属于GPU的时代。

        为了抓住人工智能市场,英伟达为深度学习打造了一系列产品。从超级计算机到智能车辆计算平台;从VR游戏显卡到为网络服务商提供的加速器,再到为数据中心提供的加速器。Nvidia已经形成了从大数据训练系统、数据中心推理系统、到智能驾驶终端应用的全方位深度学习平台布局。

1.1.3        主营业务分析

       电子竞技、VR驱动游戏业务强劲增长:根据英伟达官方数据,过去5年(FY2012-2016)来,游戏业务收入年均复合增长率(CAGR)达21%,平均销售价格(ASP)增长11%,平均销售量(ASU)增长9%。

       VR 驱动游戏业务高速增长。据英伟达Q4FY2017,当季游戏业务营收为13.48 亿美元,占总营收的62.1%,同比增长 66%。虚拟现实对高端独立GPU需求强劲,未来VR将成为强大推动力。据Gartner 估计,2020年全球高端VR硬件设备出货量有望达到2600万台。伴随着VR行业的高增长,英伟达在游戏行业中的成长动能可望持续。

       将VR带给设计师、艺术家和科学家:在专业视觉化领域,英伟达通过Quadro平台,一方面将为设计师、艺术家、科学家等终端用户提供产品,另一方面为开发者提供SDK、插件等,来丰富软件应用。

      英伟达通过两大网络部署其数据中心产品——Tesla GPU:1)第一是服务器制造商比如Dell,IBM等,这些公司将Tesla平台集成到他们的数据中心服务器中。目前,超过400款服务器机型都装配了Tesla;2)第二是云服务提供商,例如微软Azure、亚马逊AWS EC2、以及阿里云等。

       2013 年 SC13 大会上NVIDIA与 IBM 宣布,两家公司计划在 GPU 加速版本的 IBM 系列企业软件应用上展开合作。此举标志着 GPU 加速器技术首次突破了超级计算领域,进入到企业级数据中心当中。2017财年数据中心业务收入暴增1.99亿美元,由2016财年Q4同期的9700万美元暴增到2017财年Q4的2.96亿美元达到205%的增幅。得益于深度学习和人工智能技术的普及和在工业界的推广,大量的数据中心开始采用英伟达的GPU等其他产品。

         无人驾驶无人匹敌。刚刚落幕的CES 2017大会上,英伟达CEO黄仁勋为CES做了开幕演讲,介绍了公司在无人驾驶的整体布局。根据Lux Research预测,到2030年,自动驾驶汽车有望达到870亿美元规模,软件市场甚至更大。目前,英伟达在自动驾驶汽车领域无论是硬件还是软件都占据重要地位,虽然英特尔和德州仪器等半导体制造商也在试图进入这一领域,但目前还无法与英伟达匹敌。

        加速布局智能驾驶。英伟达依靠GPU加速与深度学习完美适配的先天优势,从车载超级电脑平台和人工智能驾驶系统两个角度发力。英伟达也宣布了一系列合作伙伴:首先是Audi,两家公司共同打造无人驾驶汽车,预计在2020年推出level 4的高度自动化汽车能够上路;第二是地图服务商,包括百度、TomTom、HERE等,开发高精度导航地图;第三是博世、采埃孚等汽车零部件公司,优化无人驾驶系统,开启英伟达DrivePX 2智能驾驶平台的商业化路径。

       开发AI Co-Pilot人工智能协同驾驶:基于Drive PX 2平台,将包括四大感知功能:面部识别;头部追踪;眼部追踪;唇语识别。目前仍在开发中,已经实现了识别唇语和面部朝向的功能。英伟达正和奥迪共同研发奥迪Q7自动驾驶概念车,计划2020年前将实现L4高度自动驾驶级别。博世将联手英伟达,开发一套基于Drive PX 2平台,未来推广向博世在全球的量产车型。

       从终端应用类型分, NVIDIA的产品服务于游戏、专业图形化、数据中心、汽车、OEM & IP五种需求。游戏领域收入的稳健增长、数据中心和汽车领域销售收入的爆发是NVIDIA收入增长的原因。游戏领域一直是NVIDIA盈利的主要来源,专业图形化领域一直为NVIDIA贡献稳定的收入,数据中心领域是NVIDIA未来发力点之一,智能汽车领域是NVIDIA未来另一个发力点,OEM& IP(OEM是英伟达与品牌机厂商的合作业务,IP是专利授权的业务)是NVIDIA的另一大传统收入。
 

1.2   AI时代智能平台高速计算和存储解决方案

1.2.1        脑细胞一定要多–GPU/FPGA/ASIC

        从计算机问世以来,CPU作为通用处理器就承担着机器“大脑”的职责,负责控制与计算功能。然而,CPU的设计架构决定了它计算能力的提升空间并不大,因为将近3/4的晶体管都用来实现Cache(高速缓存)的功能,又存在着相当大的面积去实现复杂的控制功能,而用于计算的ALU单元资源就很有限了。同时,一味地提高频率会造成芯片功耗过大带来的发热问题。而目前适合用于处理神经网络算法,适应于人工智能需求的计算平台有GPU(图形处理器)、FPGA(现场可编程逻辑阵列)以及ASIC(专用集成电路)等。

       GPU之所以被认为训练深度学习模型的重要基础芯片,主要是其有大量的核(多达几千个核)和大量的高速内存,最初被设计用于游戏,计算机图像处理等,后被发现擅长做类似图像处理的并行计算。GPU擅长海量数据的处理,平行处理大量琐碎信息,被应用到“深度学习”领域。以英伟达Tesla K40为例,浮点计算能力的峰值为4.29T/s。

       FPGA即可编程逻辑阵列,仅仅是提供了输入输出以及逻辑单元等硬件资源,具体的电路实现都是通过硬件描述语言HDL来配置的。用HDL描述的逻辑被编译成晶体管级的组合,所以FPGA不受固有架构的影响,每一个算法的实现都可以“定制化”。所以在可以利用并行加速的人工智能算法中,只要设计人员采用并行计算等技巧对运算进行加速,FPGA就可以实现目标功能。FPGA中的大量门电路全部都可以被用来作为计算单元,以Xilinx的V7-690T为例,包括3600个DSP(数字信号处理)单元,最高可以达到1.8T/s的浮点计算能力。

       ASIC就是专用集成电路芯片,是为了某一类需求而特别定制的芯片。与FPGA相比,ASIC一旦确定电路结构就不能再改变,算法是固定不变的。这样定制的芯片对于某一特定的算法效率更高,功耗也更低。但是缺点也显而易见,算法一旦改变原有的芯片就不能再使用了。芯片出货量越大成本越是低廉。所以,对于成熟的算法,芯片需求量大的场景ASIC是非常适合的。

      可以说,GPU是相对更加通用化的计算平台,FPGA是可编程重新配置的用于专用计算的平台,而ASIC是为了专用计算而产生,一旦生产出来,电路就固化无法改变。这三类硬件系统各有优劣,而且使用场景不同。GPU从图形处理领域逐渐进军智能驾驶、图像识别等AI领域,市场上以英伟达的芯片占比最多。FPGA一次性成本低廉,目标市场是企业军工市场。ASIC一次性成本很高但在量产的情况下可大大降低成本,适合于消费电子市场。

 

1.2.2        唯快不破的新型闪存技术

       智能摄像头、智能音箱、智能手机大多数的嵌入式设备都能看到闪存的身影,闪存的存储单元是场效应晶体管,是一种受电压控制的三端器件,相比于传统机械运动的磁盘有着速度快,带宽高,体积小和能耗低的特点,非常适合应用于嵌入式智能系统。目前主流应用于嵌入式系统的闪存一般为16-64GB 闪存标准eMMC,未来有向闪存标准UFS发展的趋势,速度也将直逼系统级闪存标准SSD。从存储介质来看,性能的提升是必然的趋势,未来发展的3D Xpoint和相变存储技术将在耐用性和速度上有一个1000倍的提升。

       英特尔和美光推出的3D Xpoint技术创新高密度设计得益于交叉点结构、非易失、高耐久性和存储层次的改变,当然预计未来价格在DRAM(每GB5美元左右)和NAND(每GB25美分左右)之间,无法短期内大规模应用于终端,最有可能首先应用于数据中心,但根据官网的数据,跨PCIe/NVMe接口的3D XPoint能够提供NAND闪存延迟的千分之一和1000倍的耐久性,这意味着该介质未来无论在内存或者存储领域都将处于重要的地位。巨头之间的较量从来没有停止,IBM的相变存储和三星也在蓄势待发。

       闪存在智能终端的使用已经比较普及,主要的原因是体积小、速度快、能耗低和带宽高等特点,没有机械装置也使得可以在更加复杂的环境中应用。传统的冯诺依曼架构在数据的传输上消耗的时间较长,未来神经网络算法更多是并行处理打破了传统的冯诺依曼结构,性能更高和价格更便宜的闪存技术在未来将替代部分内存功能,实现计算和存储更大的融合。

 

1.2.3        有容乃大的新型闪存技术

        NAND闪存介质有SLC、MLC和TLC类型之分,NAND的制程工艺不断进步,从早期的50nm一路发展到目前的15/16nm,提高容量、降低成本,但NAND闪存跟处理器不一样,先进工艺虽然带来了更大的容量,但NAND闪存的制程工艺是双刃剑,容量提升、成本降低的同时可靠性及性能都在下降,因为这和NAND工艺有关,以至于制程工艺达到某个点后成本优势逐渐消失。3D NAND的解决思路便出现了。厂商不再单单提高制程工艺,同时关注堆叠的层数。这样3D NAND闪存的容量、性能、可靠性有了保证,目前比如东芝的15nm NAND容量密度为1.28Gb/mm2,而三星32层堆栈的3D NAND可以轻松达到1.87Gb/mm2,48层堆栈的则可以达到2.8Gb/mm2。

        3D NAND技术是从2D NAND平房建成了高楼大厦,从三星2013年开始量产3D NAND闪存,到Intel和美光3D NAND最后入场并带来杀手锏闪存3D XPoint。闪存SSD容量也一路从2015年16TB发展到了2017年64TB容量,并且这个趋势没有丝毫减缓的迹象。智能终端多使用eMMC和UFS的标准,虽然性能上不如PC端SSD,但容量的扩大将对终端数据存储和数据库比对能力大大提升,智能终端配置智能芯片和大容量存储,能快速提取图像特征值存储并和目标数据库进行高速比对,避免了大量数据传输到后端才能处理的延时。

 

 

2终端智能化成为未来趋势

        

       终端设备智能化是未来的发展趋势。在大数据时代,数据中心是一切计算的核心,每时每刻都有海量的数据在云端进行不同的计算处理再传输到世界的各个角落,现在人工智能的发展更是离不开海量的数据与强大计算能力的硬件平台。然而,面对正在爆发式增长的数据,对数据传输和存储的要求都与日俱增,成本开销也越来越大。通过嵌入式计算平台,将终端设备不断智能化,使之在本地可以进行全部离线计算或者部分计算是未来人工智能发展的趋势。

        现在各行各业都看到了未来人工智能化的趋势,尤其是安防、无人驾驶、智能家居、智能机器人等。随着国内“智慧城市”“平安城市”的不断建设,安防领域将会走在人工智能的前列。而海量的视频传输以及存储起来成本巨大,摄像机能够离线进行一定的计算将会大大减轻数据中心的压力。在无人驾驶领域,特斯拉、谷歌、百度、腾讯等各个巨头都在不遗余力的研发对应的自动驾驶汽车,而自动驾驶就需要实时分析通过车辆传感器、摄像头传输过来的路况行人等各种信息,利用深度学习对这些数据进行处理也需要有强大计算能力的智能化硬件支持,比如特斯拉Model X就搭载了英伟达Drive PX 2。

 

2.1   智能终端使决策和响应更及时

2.1.1        实例:海康威视前装英伟达人工智能计算平台Jetson

        2016年10月在海康威视的新品发布会上,海康威视推出了基于深度学习的一系列智能安防产品:“深眸”系列智能摄像机、“神捕”系列智能交通产品以及“脸谱”系列人脸分析服务器等。并宣布与英伟达达成合作伙伴关系,联合发布了最新双目智能摄像机,依托英伟达嵌入式人工智能计算平台Jetson TX1可以实现强大的视频捕捉功能,该摄像机把智能分析模块一起嵌到摄像机组里,不需要连接后端服务器,将摄像机组“武装”成软硬件一体化的“武林高手”。

        “深眸”系列摄像机由枪机、筒机、球机、双目、多目、鹰眼等一系列形态各异的产品组成,其依托强大的多引擎硬件平台,内嵌专为视频监控场景设计、优化的深度学习算法。基于深度学习技术,它可以支持人脸识别、人员行为分析、人体属性分析、人脸动态对比等多种智能检测,具备比人脑更精准的安防大数据归纳能力。可以实现在各种复杂环境下人、车、物的多重特征信息提取和事件检测,可充分满足多场景、多行业的应用需求。

       英伟达1993年成立伊始立足于游戏显卡,不断进行技术创新寻求计算性能的逐步提高,1999年开创性的提出GPU,2006发布CUDA编程工具包,以其卓越的人工智能芯片为深度学习提供底层计算支持,已经从一家图形芯片公司转型为一家全球领先的GPU计算技术提供商。此次海康威视与英伟达达成合作就是看中了英伟达人工智能专用GPU芯片强大的视觉计算能力以及低功耗的优势。

        海康威视此次和英伟达联合发布的这款双目智能摄像机采用的是双目技术,搭载两个图像传感器,精确获取目标的三维信息。随着安防行业的不断发展,智能视觉分析技术的使用场景越来越多样化。现在有多种多样的视觉处理技术,比如双目技术、多球机联动跟踪技术、面向事后应用的智能技术以及视频拼接技术。双目技术就是利用视差原理,通过不同位置的图像采集设备获取物体不同角度的两幅图像,对两幅图像进行一定的位置偏差计算就可以得到物体的三维几何信息。同时,由于双目技术是基于两个不同角度的图像处理技术,可以分析目标的位置坐标、姿态信息、与背景的距离就可以得到其速度等移动信息,达到立体视觉跟踪的效果,可以应用在复杂的追踪环境中。

        JetsonTX1专门为视频监控场景中的计算而研发,集成了高效的深度学习算法。在深眸双目人脸摄像机中,Jetson TX1完成了图片快速比对,人脸高效识别的功能,可以达到摄像机实时进行至少6万张二代身份证照片的小库比对。传统的人脸识别产品都是采用前端摄像机抓拍图片,后端服务器计算比对的模式,而该深眸摄像机组可以不依托服务器而实时进行图像处理,人脸识别,极大提高了识别效率,而这些都得益于英伟达强大的计算机视觉处理芯片。

        今年3月份,英伟达宣布Jetson系列也将进入Pascal 架构时代。4月份举办的Jetson TX2 Editor's Day 活动中,英伟达向外界展示了最新推出的Jetson TX2。与上一代产品TX1相比,GPU架构从Maxwell变成了Pascal,内存从4GB升级到了8GB,存储也从16GB eMMC升级到了32GBeMMC,数据处理量与效率都得到了进一步提高。并且允许通过提高功耗的方式加快平台计算能力,最多可以达到TX1两倍的计算能力。值得注意的是,TX2与TX1的物理封装完全相同,如果要对深眸双目摄像机进行更新换代只需要简单替换计算平台,简洁高效。

       不仅仅是安防产商致力于将摄像头智能化,近日微软在2017开发者大会上公布了名为“AI for Workspace Safety”的新技术,以计算机视觉为主,将所有的监控摄像头AI化,达到“搜索世界”的目的,现在仍然在测试阶段。

 

2.2   智能终端解决人机交互和数据压缩

2.2.1        实例:特斯拉汽车搭载英伟达Drive PX 2

       智能驾驶的关键就是通过传感器、摄像头以及雷达等得到外界环境信息,通过一定的算法对这些信息进行处理给汽车以正确的指令。在人工智能的时代,可以通过深度学习使得汽车不断进行学习,经过充分训练之后无人驾驶就有了实现的可能,但是深度学习依赖具有强大计算能力的硬件。特斯拉的自动驾驶软件系统“Tesla Vision”就是基于英伟达的Drive PX 2计算平台,利用GPU来进行计算的加速。据英伟达官方介绍,Drive PX 2提供的处理能力超过以前系统的40倍,它运行了特斯拉开发的神经网络,用于视觉、声纳和雷达处理。

        现在特斯拉的所有车型上或多或少都具有一定的计算能力,使得他们在未来有实现自动驾驶的潜能。汽车越来越智能化有助于缓解交通压力以及降低交通事故发生的可能性。不仅仅是汽车,在人工智能的时代,终端将会具有计算能力,多元输入的数据会经过合理的压缩和处理,决定保留哪些参数,哪些就会永远的抛弃。经过压缩,每个自动驾驶汽车形成的小网再和整个大的车联网进行有效的通信。

 

2.3   智能终端符合应用轻量级趋势

2.3.1        实例:可穿戴设备

        智能手表、智能眼镜等智能化的可穿戴设备逐步走进我们的日常生活。在可穿戴设备领域,这些日常用品都具有了一定的计算能力甚至日后可以在万物互联的时代代替手机实现一些交互,比如显示智能烤箱的菜单和食谱等。可穿戴设备领域一个亟需解决的问题就是能耗问题,为了降低功耗,延长待机时间,在这些设备中就可以嵌入低功耗且计算能力强大的GPU。比如Imagination Technologies发布的PowerVR图形处理器IP 内核就是一个可以兼容Android 系统的 GPU 解决方案。

       AppleWatch中搭载的是S1芯片,包含了30几个独立部件,根据ABI的拆解照片显示,S1芯片有一颗8GB闪存芯片、ADIAD7194触摸屏控制器、IDTP9022无线充电芯片、AMSAS3923NFC信号放大器、NXPNFC控制器以及Dialog(D2238A)电源管理组件。提供类似于手机的通知和控制功能,比如信息邮件提示、电话接打、日历、运动追踪Activity、Siri、音乐等多种功能。硬件上也搭载了PowerVR驱动器以及GPU。

     

3AI时代计算和存储发生在边缘网络

 

3.1   深度学习计算单元让云变得更轻

3.1.1        实例:谷歌的TPU

        谷歌这个云巨头有着巨大的运算量需求,有别于其他云厂商大量地建设更多的运算中心,谷歌开发了适用于AI计算的高性能专用硬件—TPU。官方网站上TPU的AI运算测试比NVDIA K80GPU平均速度快15-30倍,比服务器级Intel Haswell CPU快70多倍,虽然benchmark的选择都是因芯片而异,同时对于某些特定负载运行效率也表现不好,随着巨头决定未来持续投入并更新TPU架构,该芯片在未来工业界将有一席之地。

       想象中的云计算中心往往是服务器农场,成千上万的通用服务器带着CPU通用处理器日以继夜在运转。TPU是典型的ASIC芯片,属于特定应用领域的专用处理芯片。谷歌之所以能够做到这件事情,是因为谷歌的市场容量足够大。设想一下谷歌作为搜索引擎最普通的一个需要,即应用上万个通用中央处理器运行7天来训练一个识别猫脸的深度学习神经网络,他完全可以打造一款深度学习处理器,用以完成数据中心需求最大的GMM-HMM等经典模型训练。未来的云计算中心随着神经网络深度学习专用芯片的使用和专用GPU加速服务器的应用,基础信息设施将走上轻量级,专业化和高效化的道路。

 

3.2   高密度存储使终端具有更强学习能力

3.2.1        实例:智能家居的AI应用

        Echo是亚马逊于2014年发布的一款家庭智能音箱,通过内置的Alexa语音交互系统可以实现语音购物、语音支付、语音点歌等功能,同时,Echo基于亚马逊AWS云服务,随时与云端相连,当Echo被唤醒以后,用户可以通过云获取互联网上的信息,比如新闻天气等。

       由于Echo没有配置显示屏幕,所有功能都是通过语音交互进行的。在家庭的场景中如何让Echo能够辨别出哪些是命令哪些是普通交谈就用到了亚马逊一直研究的机器学习技术。比如在播放着电视机节目的客厅里,用户说出了Alexa,Echo就会通过内置的算法对其他杂音进行屏蔽而被用户唤醒。

        据研究机构CIRP统计,截至2016年4月,Amazon Echo的销量已经突破300万台,而语音助手Alexa有希望能为亚马逊的另一支柱业务。

 

3.3 提取数据特征值管理热数据和冷数据

3.3.1 实例:公安犯罪嫌疑人特征

        热数据在公安抓捕犯罪嫌疑人的过程中,能派上大用场。随着监控摄像头的布局越来越广,智能终端将摄像头采集信息和自身存储特征数据库信息进行比对,能迅速找到犯罪嫌疑人。时间久远的视频无法在近期侦破案件的过程中派上用场,但不能马上予以删除。若将所有的视频全部存储,则会耗用大量的存储空间,其中许多无用信息将造成存储空间的浪费。因此,在公安锁定犯罪嫌疑人的过程中,将结合人脸识别与冷热数据分类技术,将识别到犯罪嫌疑人行踪的数据划归为热数据,提取特征值终端存储以备日后多次访问和高速比对;而将其它数据划归为冷数据,迁移至相应的冷数据层,减少存储的能耗以及存储空间的浪费。

       数据存储的二八定律一般用来划分热数据和冷数据在存储硬件需求上的配置。在传统数据库中,准确划分热数据和冷数据的问题一直存在,对应数据库中的概念就是某些表很热(访问次数多),但有些表很冷(访问次数少),而这些数据热点问题最终都会落在存储介质上。一般而言,应对热数据问题传统解决方案是加大存储缓存Cache或使用闪存设备加速,而将冷数据迁移到低速的存储介质,随着闪存技术发展和大量应用,终端数据压缩和智能识别能力提高,冷热数据数据不同管理成为趋势,随之产生热数据中心、冷数据中心、智能数据湖等。

 

4风险提示       

        1. 人工智能应用推进不达预期;2.智能终端下游需求不足;3技术路线发生重大变化。

 

来源:宏达说

 

注:版权属于原作者,文中内容仅供参考,不代表本平台立场,不构成任何投资建议,转载的目的是为了更好的传递和分享信息。

分享到:

© 2012-2021 ZheLing Investment. 网站备案号:粤ICP备16051314号 Powered by MetInfo