类脑计算知多少——起源与发展

发布时间:2021-06-24

人工智能作为一种发展了半个多世纪的技术,近年来越来越深入人们的生活。但现有的人工智能距离人们理想中的人工智能仍有一定差距,甚至在某些场合被调侃为“人工智障”。从根本上讲,这是现有计算机架构与人类大脑结构间并不相同的缘故。从上世纪冯·诺依曼把第一台通用计算机ENIAC改造为EDVAC后,人类使用的通用计算机都离不开冯·诺依曼架构。在冯·诺伊曼架构(如图1)中,计算单元和存储单元处于分离状态,数据由输入设备输入存储器,并通过指令将数据在存储器和运算器中频繁运输,最终输出至输出设备。而计算单元的速度远高于存储单元,两者的分离也使数据传输中产生大量功耗,同时也造成了信息处理中的速度瓶颈,这种现象被称为“内存墙”。


与现行计算机架构不同的是,人脑中并没有单独的“计算单元”和“存储单元”,所有的计算和存储功能都由1011个神经元和1015个神经突触完成。相对于冯·诺伊曼架构,人脑拥有两个巨大的优势:低功耗和低信息需求量。通过神经突触的可塑性,人脑能够以超低功耗(约20W)来处理大量信息,这个功率甚至小于普通的计算机CPU。有人戏称Alpha Go背后有1202个CPU、176个GPU和100多名科学家,单单功耗就在数百千瓦以上,而李世石只需要一个汉堡。同时,建立在冯·诺伊曼架构上的人工智能算法需要大量的数据来训练,比如为了区分猫和狗,计算机需要数以万计的图片来训练,而这样的算法也并不能将实物形象泛化到卡通形象上;但对于人来说,即便是蹒跚学步的儿童,也可以轻松的分辨出猫和狗,并能将实物猫的特点轻易地泛化到卡通猫形象上。

人脑与计算机另外一个巨大的不同点就是计算方式的不同。当前的通用计算机是一种数字电路,采用二进制计算,高电平表示1,低电平表示0;但人脑并非是一个“非0即1”的世界,而是一个由神经元之间的强度连续可变的突触连接来完成计算和记忆,这一点类似于将连续变化的模拟量作为被运算的对象的模拟计算机。

诚然,现阶段人们对人脑的理解仍然非常的浅显,但这种神经计算方式给了人们莫大的启发。能否模仿人脑的计算方式,采用一种全新的计算架构,进而达到人们理想中的人工智能呢? “类脑计算”这一概念随之应运而生。其实,冯·诺依曼早有将计算单元和存储单元合二为一的想法,只是囿于现有条件无法完成。这一概念最早在Carver Mead的文章《Neuromorphic electronic systems》中提及。类脑计算涉及到多个学科领域:神经科学从底层提供类脑计算的模型,而类脑计算系统也可以反过来模拟和研究生物神经系统;材料科学研究、制造能够模拟生物神经系统相似的新材料;计算机科学利用数字电路、模拟电路、数模混合电路和新材料新器件来构造系统,并开发由生物启发的新算法。广义上来讲,只要参照了生物神经系统和感知方式来设计的芯片,都可以称为“类脑芯片”。

类脑计算的革新性早已吸引了世界上众多研究者的目光。作为IT行业的“百年老店”IBM公司,2004年就开启了类脑项目的研究,并于2008年获得了来自美国国防部高级研究计划局(即大名鼎鼎的DARPA)的490万美元的资助(后累积至5600万美元)。随后数年间,IBM发布了数代名为TrueNorth的类脑芯片,性能也从虫脑提升到了小鼠大脑水平。同时段,国外也相继出现了由曼彻斯特大学开发的SpiNNaker、海德堡大学开发的BrainScale、Intel开发的Loihi、斯坦福大学开发的Neurogrid等诸多类脑芯片,功耗均处于瓦级。通过芯片之间的互联,这些类脑芯片能够模拟的神经元数量从100万到1亿不等,在某些特定领域甚至可以媲美1MW的超级计算机。

我国在类脑芯片方面起步较晚,但近两年进展迅速。利用国外多个产品多年未更新的时间窗口,浙江大学和清华大学分别发布了各自的类脑芯片产品,达尔文和天机。2019年发布的第二代达尔文芯片量级上已经达到了果蝇水准,并能够将792颗达尔文芯片互连起来,形成一个拥有1.2亿个仿真神经元和近千亿个神经突触连接的类脑计算机,并具有了专门的类脑操作系统。而清华大学的最新天机芯片最大的特点是具有算法的灵活性,并且采用了存算一体的架构。施路平教授在Nature上的文章《A system hierarchy for brain-inspired computing》,阐述了类脑计算的完备性,为类脑计算算法提供了理论指导。

在类脑芯片性能提升的同时,我们也应注意到,基于硅基材料的类脑芯片即便相较于传统GPU加速的人工智能架构在功耗上有了极大的提升,其效能依然远不及人脑。IBM的TrueNorth芯片中,平均需要5000个晶体管才能模拟一个神经元,而Intel的Loihi芯片更是需要1.6万个晶体管才能模拟一个神经元,这也大大增加了类脑芯片的设计难度。这时,一种新型的材料,忆阻材料,走进了人们的视线。忆阻材料做成的器件具有阻值可变且阻值非易失的特点,与生物体神经突触强度相似,理论上一个忆阻器就可以实现一个神经突触的功能,大大降低了类脑芯片的设计难度,是从硬件层面实现人工神经网络突出的最好方式。常见的忆阻器可以分为阻变忆阻材料、磁性忆阻材料、相变忆阻材料和其他新型忆阻材料等。对于忆阻材料,由于其可以仿真神经突触之间的突触强度,简化电路设计难度,所以从算法层面上可以更开放的探索各种不同的神经网络模型。反过来,各种人工智能算法也应改进甚至有革命性的更新以适应新型的类脑器件。

鉴于类脑计算的革新性,世界上几个主要国家也在纷纷大力推进类脑计算的研究。2013年,美国奥巴马政府推出了为期10年的“推进创新神经技术脑研究计划”(简称BRAIN),该计划年度投资4~6亿美元,涵盖了从生物脑到人脑机口到类脑智能等广泛领域,并被誉为媲美“人类基因组工程”。同年,由欧盟牵头,共26个国家和135家合作机构共同参与的“人类脑计划”(Human Brain Project,HBP)正式启动。该项目预期十年,拟投入13亿欧元,侧重于利用超级计算机来模拟人脑,实现人工智能。我国也早在2006年的《国家中长期科学和技术发展规划纲要》提出脑科学和认知科学,2016年至2017年,我国一系列科技规划中均提出加强类脑计算和部署脑科学与类脑计算重点专项。在“科技创新2030——重大项目”中,也明确部署脑科学与类脑研究。2021年1月19日,科技部发布了《科技创新2030—“脑科学与类脑研究”重大项目2020年度项目申报指南(征求意见稿)》,正式启动类脑计算中的重大项目。

类脑计算有什么实际应用呢?且不说如电影《终结者》般的科幻世界,即便是当前,类脑计算仍然有其实际的用途。类脑计算能够仿真人脑,相较于传统计算具有存算一体的特性,能够对采集到的数据进行实时处理,从而大大提高数据计算的效率。边缘计算是与云计算相对应的概念,是指数据无需数据中心即可在采集端完成计算的方式,能够显著降低计算延迟和运行功耗,被称为是“人工智能的最后一公里”。但现在的边缘计算仍然是基于传统计算方式,功耗上限制了进一步的大规模利用。而基于忆阻材料的类脑芯片,因其开关电压较低,能够显著降低边缘计算的功耗,使得大规模的推广成为可能。此外,由于边缘运算中数据无需上传云端,也降低了人们对隐私问题的担忧。同时,生物体的视觉、听觉、触觉、嗅觉等一系列外周感应器本身就是神经元的感觉神经末梢,这使得生物体的神经系统是一个天然的感存算一体系统。受此启发,人们可以研制出感存算一体器件,大大简化器件的复杂程度。

小结

类脑计算作为仿真大脑运行模式的计算方法,首先就需要对大脑的运行方式有彻底而详细的了解。但人类到目前为止对大脑的认知水平依然处在初级阶段。这需要计算机科学与神经科学紧密的联系方可达成。当前,基于硅基材料(CMOS)逻辑电路的类脑芯片工艺成熟,设计流程简单,但应用领域较为狭窄,大多数只能应用于特定领域;而忆阻材料天然适合于人工神经网络结构,但现在工艺仍不成熟,离实用化还有一定距离。而忆阻材料在模拟计算上的优势也会带来模拟计算中错误累积的问题,这需要相关算法的进一步改进。同时,虽然现在类脑计算仍处在初级阶段,神经伦理问题依然是需要考虑的重要因素。

类脑计算能够仿真人脑神经计算,是人们通向通用人工智能道路的上佳选择。目前,应充分利用现有的成熟工艺和技术,首先选取与微纳加工工艺相兼容的材料体系(如金属氧化物阻变材料)以实现快速突破。当前,各个大国都在开展脑科学和由脑科学启发的人工智能的研究,我国已明确将类脑智能列为十四五规划中重点发展的前沿科技领域,类脑计算领域有着广阔的前景。