公众号/ 智东西
导语:最近半年以来,人工智能的发展重心逐渐从云端向终端转移,相伴而生的是全新一代的计算芯片产业全面崛起。智东西历经数月,首次对包括AI芯片在内的新一代计算芯片全产业链上下近百间核心企业进行报道,覆盖国内外各大巨头玩家、新兴创企、场景应用、代工生产等,全面深入地对芯片产业发展、创新创业进行了追踪报道。此为智东西新一代计算芯片产业系列报道之一。
最近,在AI领域无论是学术界的大咖还是行业的大佬,都在如火如荼的搞类脑芯片的研究,当然也取得了不少成果。日前,斯坦福大学研究院电子与微系统技术实验室的Jeehwan Kim教授在《自然》杂志上发表了一篇论文,一时间引来了产学研三界的关注。原因是Jeehwan Kim教授与研究员们使用一种称为硅锗的材料研发了一款人工突触芯片,可支持识别手写字体的机器学习算法。无独有偶,近日中国科学院自动化研究所类脑智能研究中心类脑信息处理(BRAVE)研究组也在借鉴生物神经结构的神经网络建模与类人学习研究中取得了突破性的研究。
国内外有许多公司和机构正在类脑芯片研发上投入大量精力,美国在此项研究上开始较早,2014年IBM就推出了业内首款类脑芯片TrueNorth。国内最近几年在芯片研发上也不甘示弱,也有西井科技这样的初创公司投身到类脑芯片的研发中来,清华等知名高校也纷纷建立类脑研究中心。
相比于传统芯片,类脑芯片的确在功耗上具有绝对优势,拿英特尔在本次CES上展出的自我学习芯片Loihi来说,不仅其学习效率比其他智能芯片高100万倍,而且在完成同一个任务所消耗的能源比传统芯片节省近1000倍。类脑芯片的集成度也非常高,拿浙大推出的“达尔文”芯片来说,其面积为25平方毫米,也就是说边长只有0.5厘米,但内部却能包含500万个晶体管。随着行业对计算力要求越来越高,冯氏瓶颈将越来越明显,颠覆传统架构的类脑芯片已为芯片行业开启了一扇新的大门。
传统芯片遇冯·诺依曼瓶颈 模拟神经元成新思路
现代计算机基本都基于冯·诺依曼结构,它将程序和处理该程序的数据用同样的方式分别存储在两个区域,一个称为指令集,一个称为数据集。计算机每次进行运算时需要在CPU和内存这两个区域往复调用,因而在双方之间产生数据流量。而随着深度学习算法的出现,对芯片计算力的要求不断提高,冯·诺伊曼瓶颈遇见明显:当CPU需要在巨大的资料上执行一些简单指令时,资料流量将严重降低整体效率,CPU将会在资料输入或输出时闲置。
不仅如此,传统芯片还存在一个大问题就是效率低。芯片在工作时,大部分的电能将转化为热能,一个不带散热器的计算机,其CPU产生的热量就可在短时间内将其自身融化。其他的智能化设备,也因芯片复杂耗能太高,导致续航能力差,不管如何改善工艺,高温和漏电都是难以避免的问题。
为了解决CPU在大量数据运算效率低能耗高的问题,目前有两种发展路线:一是延用传统冯诺依曼架构,主要以3中类型芯片为代表:GPU、FPGA、ASIC;二是采用人脑神经元结构设计芯片来提升计算能力,已完全拟人化为目标,追求在芯片架构上不断逼近人脑,这类芯片被称为类脑芯片。
人脑神经元在接受到刺激后,其细胞膜内外带电离子分布将发生变化,因而形成电位差,电位差将沿着神经细胞轴突、树突双向传导,形成脉冲电流。而当该电信号传递到突触时,突触前神经元将释放神经递质(如多巴胺、肾上腺素)由突触后神经元接受神经递质产生兴奋(该过程单向传递),并向下传递作用与人体反应器并发生反应。
类脑芯片架构就是模拟人脑的神经突触传递结构。众多的处理器类似于神经元,通讯系统类似于神经纤维,每个神经元的计算都是在本地进行的,从整体上看神经元们分布式进行工作的,也就是说整体任务进行了分工,每个神经元只负责一部分计算。在处理海量数据上这种方式优势明显,并且功耗比传统芯片更低。比如IBM的TrueNorth芯片每平方厘米功耗消耗仅为20毫瓦。
类脑芯片虽面世 但大规模商用进展缓慢
相比于依靠冯诺依曼结构的GPU、FPGA、ASIC来说,类脑芯片是一种相对处于概念阶段的集成电路。目前面世的类脑芯片并不多,更不要说大规模的商业化了。
美国为保持技术优势,率先发起类脑计算芯片的相关研究工作,通过模仿人脑工作原理,使用神经元和突触的方式替代传统冯诺依曼架构体系,使芯片能够进行异步、并行、低速和分布式处理信息数据,并具备自主感知、识别和学习的能力。因此市面上第一款类脑芯片就来自于美国的IBM公司。
1、IBM TrueNorth(SyNAPSE芯片)
2011年8月,IBM率先在类脑芯片上取得进展,他们在模拟人脑大脑结构基础上,研发出两个具有感知、认知功能的硅芯片原型。但因技术上的限制,IBM戏称第一代TrueNorth为“虫脑”。2014年TrueNorth第二代诞生,它使用了三星的28nm的工艺,共用了54亿个晶体管,其性能相比于第一代有了不少提升。功耗每平方厘米消耗仅为 20 毫瓦,是第一代的百分之一,直径仅有几厘米,是第一代的十五分之一。
▲IBM Truenorth芯片
每个核都简化模仿了人类大脑神经结构,包含256个“神经元”(处理器)、256个“轴突”(存储器)和64000个突触(神经元和轴突之间的通信)。总体来看,TrueNorth芯片由4096 个内核,100 万个 “神经元”、2.56 亿个 “突触” 集成。此外,不同芯片还可以通过阵列的方式互联。
IBM称如果 48 颗TrueNorth芯片组建起具有 4800 万个神经元的网络,那这48颗芯片带来的智力水平将相似于普通老鼠。
从2014年亮相后,这款芯片一直没有大的动作。不久前,TrueNorth终于传出了新进展,有报道称IBM公司即将开发由64个“TrueNorth”类脑芯片驱动的新型超级计算机。这一计算机能进行大型深度神经网络的实时分析,可用于高速空中真假目标的区分,并且功耗比传统的计算机芯片降低4个数量级。如果该系统功耗可以达到人脑级别,那么理论上就可以在64颗芯片原型基础上进一步扩展,从而能够同时处理任何数量的实时识别任务。
2、英特尔Loihi芯片
▲英特尔神经拟态芯片Loihi
几日前的CES上芯片巨头英特尔展示了其首款自学习神经元芯片Loihi,去年9月英特尔就曾宣称历时十年研究设计出了这款芯片的原型。Loihi芯片可以像人类大脑一样,通过脉冲或尖峰传递信息,并自动调节突触强度,通过环境中的各种反馈信息,进行自主学习、下达指令。据英特尔方面称Loihi内部包含了128个计算核心,每个核心集成1024个人工神经元,总计13.1万个神经元,彼此之间通过1.3亿个突触相互连接。
相比于人脑内的800多亿个神经元,Intel这款芯片的运算规模仅仅比虾脑大一点。但根据英特尔给出的数据Loihi的学习效率比其他智能芯片高100万倍,而在完成同一个任务所消耗的能源可节省近1000倍。
3、高通Zeroth芯片
芯片巨头高通也在进行类脑芯片的研发,早在2013年高通就曾公布一款名为Zeroth的芯片,Zeroth不需要通过大量代码对行为和结果进行预编程,而是通过类似于神经传导物质多巴胺的学习(又名“正强化”)完成的。高通为了让搭载该芯片的设备能随时自我学习,并从周围环境中获得反馈,还为此开发了一套软件工具。在公布的资料中高通还用装载该芯片的机器小车进行了演示,使小车在受人脑启发的算法下完成寻路、躲避障碍等任务。
国内也开始了类脑芯片的研究,除清华等知名高校开设研究院外,也出现了专注类脑芯片研发的创企,代表企业如上海的西井科技。
4、西井科技DeepSouth芯片
西井科技是国内研究类脑强人工智能的公司,目前西井已推出了自主研发的拥有100亿规模的神经元人脑仿真模拟器(Westwell Brain)和可商用化的5000 万类脑神经元芯片(DeepSouth)两款产品。 DeepSouth 是一款可商用化的芯片,它能模拟出高达 5000 万级别的“神经元”,总计有 50 多亿“神经突触”。据西井CEO谭黎敏称,该芯片除了具备“自我学习、自我实时提高”的能力外,还可以直接在芯片上完成计算,不需要通过网络连接后台服务器,可在“无网络”情况下使用。
能耗方面,DeepSouth 在同一任务下的功耗仅为传统芯片的几十分之一到几百分之一。
5、浙大“达尔文”类脑芯片
▲浙大和杭州电子科技共同研发的“达尔文”芯片
2015年一群来自浙江大学与杭州电子科技大学的年轻的研究者们研发出一款成为达尔文的类脑芯片。这款芯片是国内首款基于硅材料的脉冲神经网络类脑芯片。“达尔文”芯片面积为25平方毫米,比1元硬币还要小,内含500万个晶体管。芯片上集成了2048个硅材质的仿生神经元,可支持超过400万个神经突触和15个不同的突触延迟。
据研发团队介绍说,这款芯片可从外界接受并累计刺激,产生脉冲(电信号)进行信息的处理和传递,这如我们前面提到的人类神经元间的信息传递一样。研发人员还为“达尔文”开发了两款简单的智能应用。一是这款芯片可识别不同人手写的1-10这10个数字,二是“达尔文”在接受了人类脑电脑后,可控制电脑屏幕上篮球的移动方向。在熟悉并学习了操作者的脑电波后,“达尔文”会在后续接受相同刺激时做出同样反映。
6、AI-CTX芯片
此外,国内也出现了一些小型的类脑芯片研究团队,如AI-CTX团队。据称他们目前设计出了一款类脑芯片模型,不仅每个神经元都具有跟人脑神经元类似的电学特征与动态参数,具有简单的运算与存储功能。他们还采用了一种特殊的布线方式,使各芯片之间的交流突破物理限制,进而增加芯片群组的原有网络。这一芯片不适合处理静态硬盘数据,但擅长处理如温度、气压、人体信号、loT等包含时间参数的数据。
虽然目前市面上出现了几款类脑芯片,但其在计算力上还不及传统架构芯片快。为了提升计算机对大规模数据的运算效率,芯片企业现在最常见的做法就是基于传统芯片架构,搭载人工神经网络,从功能上模拟人脑计算的GPU、FPGA·、ASIC三种芯片,加上类脑芯片,并称为AI芯片。智东西曾利用过去的一年时间,深入到芯片产业链上下游,遍访AI芯片各大公司以及创企,并进行过详细细致的报道。深入企业涉及英伟达、谷歌、联发科等。
类脑计算成新方向
人脑的这三大特性始终是计算机无法比拟的:一是低能耗,人脑的功率大约为20瓦,而目前计算机功耗需要几百万瓦;二是容错性,人脑时刻都在失去神经元,而计算机失去一个晶体管就会破坏整个处理器;三是无需编程,大脑在于外界交互过程中自发学习和改变,并非遵循预先设计好的算法。
中国也十分重视类脑研究,并将类脑计算作为国家战略发展的制高点。中国不仅在2015年将脑计划作为重大科技项目列入国家“十三五”规划,还发布了关于脑计划“一体两翼”的总体战略:一体即认识脑:以阐释人类认知的神经基础为主体和核心;两翼即保护脑:预防、诊断和治疗脑重大疾病和模拟脑:类脑计算。
中国的学术界也展开了对类脑的研究,2015 年中科院、清华、北大,相继成立“脑科学与类脑智能研究中心”,2017年5月在合肥成立了类脑智能技术及应用国家工程实验室。这些实验室将借鉴人脑机制攻关人工智能技术,推进类脑神经芯片、类脑智能机器人等新兴产业发展。
结语:类脑芯片或将赋予机器智能
目前,搭载神经网络引擎的芯片层出不穷,芯片巨头和初创们都在原有的冯诺依曼架构上争相利用神经网络优化芯片计算力。从目前这类AI芯片的表现上看,FPGA的灵活性较好但开发难度大,ASIC因其功耗低、开发难度适中将在终端AI芯片上具有较大优势。
类脑芯片不仅能提高计算机的计算速度、降低功耗,其在国防领域也将发挥重要作用,对研发高度自主性的智能机器人以及提高其他设备的智能水平也有重要意义。就让机器实现智能这一人工智能终极理想来说,从人类自身结构出发是一可选思路,但并非仅此一种。
从现在各大公司的研究成果来看,像IBM TrueNorth这样的类脑芯片运行的效率还不及以上提到的在传统架构上运用神经网络的芯片。但冯诺依曼瓶颈是客观存在的事实,随着运算数据量的增加,这一短板将越来越明显。
而人脑也的确凭借低功耗、高运算力成为计算机芯片研发学习的方向,但短期内类脑芯片还难以表现出其优势,或许随着对人脑研究的深入,会有人像牛顿一样被“上帝的苹果”砸中,从而拥有敲开具有高速运算力的类脑芯片领域的敲门砖。或许现在的传统架构加神经网络芯片就是像牛顿的万有引力定律一样适用于数据量较大的运算,而类脑芯片像爱因斯坦的相对论一样在实现机器智能上更具潜力。