英特尔首发大型神经拟态系统Hala Point,推进“绿色AI”发展

中关村在线消息,近日英特尔发布了代号为Hala Point的大型神经拟态系统。Hala Point基于英特尔Loihi 2神经拟态处理器打造而成,旨在支持类脑AI领域的前沿研究,解决AI目前在效率和可持续性等方面的挑战。在英特尔第一代大规模研究系统Pohoiki Springs的基础上,Hala Point改进了架构,将神经元容量提高了10倍以上,性能提高了12倍。

英特尔研究院神经拟态计算实验室总监Mike Davies 表示:“目前,AI模型的算力成本正在持续上升。行业需要能够规模化的全新计算方法。为此,英特尔开发了Hala Point,将高效率的深度学习和新颖的类脑持续学习、优化能力结合起来。我们希望使用Hala Point的研究能够在大规模AI技术的效率和适应性上取得突破。”

Hala Point在主流AI工作负载上展现了出色的计算效率。研究显示,在运行传统深度神经网络时,该系统能够每秒完成多达2万万亿次(20 petaops)运算,8位运算能效比达到了15TOPS/W,相当于甚至超过了基于GPU和CPU的架构。HalaPoint有望推动多领域AI应用的实时持续学习,如科学研究、工程、物流、智能城市基础设施管理、大语言模型(LLMs)和AI助手(AI agents)。

目前,Hala Point是一个旨在改进未来商用系统的研究原型。英特尔预计其研究将带来实际技术突破,如让大语言模型拥有从新数据中持续学习的能力,从而有望在AI广泛部署的过程中,大幅降低训练能耗,提高可持续性。

深度学习模型的规模正在不断扩大,参数量可达万亿级。这一趋势意味着AI技术在可持续性上面临着严峻的挑战,有必要探索硬件架构底层的创新。神经拟态计算是一种借鉴神经科学研究的全新计算方法,通过存算一体和高细粒度的并行计算,大幅减少了数据传输。在本月举行的声学、语音与信号处理国际会议(ICASSP)上,英特尔发表的研究表明,Loihi 2在新兴的小规模边缘工作负载上实现了效率、速度和适应性数量级的提升。

Hala Point在其前身Pohoiki Springs的基础上实现了大幅提升,基于神经拟态计算技术提升了主流、常规深度学习模型的性能和效率,尤其是那些用于处理视频、语音和无线通信等实时工作负载的模型。例如,在今年的世界移动通信大会(MWC)上,爱立信研究院(Ericsson Research)就展示了其如何将Loihi 2神经拟态处理器应用于电信基础设施效率的优化。

Hala Point基于神经拟态处理器Loihi 2打造,Loihi 2应用了众多类脑计算原理,如异步(asynchronous)、基于事件的脉冲神经网络(SNNs)、存算一体,以及不断变化的稀疏连接,以实现能效比和性能的数量级提升。神经元之间能够直接通信,而非通过内存通信,因此能降低整体功耗。

Hala Point系统由封装在一个六机架的数据中心机箱中的1152个Loihi 2处理器(采用Intel 4制程节点)组成,大小相当于一个微波炉。该系统支持分布在140544个神经形态处理内核上的多达11.5亿个神经元和1280亿个突触,最大功耗仅为2600瓦。Hala Point还包括2300多个嵌入式x86处理器,用于辅助计算。

在大规模的并行结构中,Hala Point集成了处理器、内存和通信通道,内存带宽达每秒16PB,内核间的通信带宽达每秒3.5PB,芯片间的通信带宽达每秒5TB。该系统每秒可处理超过380万亿次8位突触运算和超过240万亿次神经元运算。

在用于仿生脉冲神经网络模型时,Hala Point能够以比人脑快20倍的实时速度运行其全部11.5亿个神经元,在运行神经元数量较低的情况下,速度可比人脑快200倍。虽然Hala Point并非用于神经科学建模,但其神经元容量大致相当于猫头鹰的大脑或卷尾猴的大脑皮层。

在执行AI推理负载和处理优化问题时,Loihi 2神经拟态芯片系统的速度比常规CPU和GPU架构快50倍,同时能耗降低了100倍。早期研究结果表明,通过利用稀疏性高达10比1的稀疏连接(sparse connectivity)和事件驱动的活动,Hala Point运行深度神经网络的能效比高达15TOPS/W,同时无需对输入数据进行批处理。批处理是一种常用于GPU的优化方法,会大幅增加实时数据(如来自摄像头的视频)处理的延迟。尽管仍处于研究阶段,但未来的神经拟态大语言模型将不再需要定期在不断增长的数据集上再训练,从而节约数千兆瓦时的能源。

世界各地领先的学术团体、研究机构和公司共同组成了英特尔神经拟态研究社区(INRC),成员总数超过200个。携手英特尔神经拟态研究社区,英特尔正致力于开拓类脑AI前沿技术,以将其从技术原型转化为业界领先的产品。