本篇文章1619字,读完约4分钟

最近,美国普林斯顿大学的研究人员引进了一种新的计算机芯片,它比传统芯片运行速度快数百倍。一些媒体声称它采用了内存计算技术,大大提高了计算效率。

这项惊人的技术是什么?为什么它能显著提高芯片性能?《科技日报》记者采访了相关专家。

高度集成,将计算和存储功能合二为一

对于我们常用的计算机来说,内存可以分为内部内存和外部内存。内部存储器,即内部存储器,是计算机的主存储器。它的存取速度很快,但只能存储临时的或少量的数据和程序。

外部存储器,通常称为外部存储器,包括硬盘、软盘、光盘、u盘等。,它总是可以存储大量的数据,如操作系统、应用程序等。运行程序时,处理器(cpu)首先从内存中读取数据,然后将一部分结果写入内存,并有选择地将另一部分结果写入外部内存,以便永久存储。

让内存干CPU的活儿 这项技术将芯片运行速度提升百倍

也就是说,通常情况下,内存只能存储少量数据,而计算机中的大部分数据都存储在外部内存中。当中央处理器运行程序时,它需要检索数据。如果存储在内存中的数据被检索,它需要的时间更少;检索存储在外部存储器中的数据可能会有些麻烦。

让内存干CPU的活儿 这项技术将芯片运行速度提升百倍

所以科学家们想知道,我们能把所有的数据都存储在内存中吗?因此,内存计算技术出现了。

随着大数据处理技术的兴起,内存计算技术蓬勃发展。在处理大数据的过程中,由于数据量巨大,频繁访问硬盘的外部存储器会降低操作速度。随着大容量存储技术的兴起,专家们开始提出,所有的数据都应该在初始阶段加载到内存中,然后可以直接从内存中检索数据,然后由处理器进行计算。这样,可以省略外部存储器和内部存储器之间的数据调入/调出过程,从而大大提高了计算速度。航空航天大学计算机科学学院教授、中德联合软件研究所所长空·刘一告诉《科技日报》记者。

让内存干CPU的活儿 这项技术将芯片运行速度提升百倍

但是普林斯顿大学的R&D团队采用了& lsquo在上述概念中,内存计算技术与内存计算并不完全相同。刘一说,普林斯顿大学采用的技术实际上是pim(内存中的进程),它通常被翻译为内存中的计算和存储的集成或计算和存储的集成。

Pim技术是指直接在内存中处理数据,而不是将数据从内存读取到处理器中进行处理。刘一指出,pim的技术概念是在1990年提出的。虽然相关研究论文已经发表,但相关技术始终难以落地。

刘伟认为,登陆困难的主要原因是pim技术仍然难以达到传统的计算机冯& middot纽曼结构的灵活性和多功能性。目前,学术界提出的pim技术只能做一些应用,很难实现灵活的编程。他说。

可以解决存储墙问题,大大提高性能

在刘一看来,pim技术的重要价值在于它可以解决传统计算机结构的存储墙问题。冯·在传统计算机中的应用:诺依曼结构要求中央处理器从内存中获取指令并执行,有些指令需要从内存中读取数据进行处理,然后将结果写回内存。因为由处理器执行的程序和要处理的数据都存储在存储器中,所以处理器在运行期间需要频繁地访问存储器。随着微电子技术的发展,处理器的性能比存储器提高得更快。

让内存干CPU的活儿 这项技术将芯片运行速度提升百倍

在过去30年中,处理器性能每年增长55%,而内存访问速度每年仅增长7%。这使得处理器的处理速度远远快于内存的读取速度,直接导致存储墙的出现,严重降低了程序的执行速度。

这就像一个人的消化能力很强,而且餐桌上有很多食物,但是这个人的喉咙很细,他不能咽下去。这使得消化能力& lsquo没用,也限制了这个人吃饭的速度。刘一说。

近年来,深度学习等新算法的兴起降低了成本。储物墙提出了更迫切的需求。刘一指出,新算法的内存访问模式不同于传统模式,新算法如人脸刷刷、图片识别和机器翻译经常以类似人脑的方式处理复杂数据。由于这类算法涉及大量的神经元和大量的训练样本,在通用计算机上进行深度学习计算的效率相对较低。

让内存干CPU的活儿 这项技术将芯片运行速度提升百倍

为了提高效率,研究人员开发了各种加速组件和特殊的深度学习处理器。前者的典型代表是图形处理器(gpu),后者的典型代表是谷歌公司的张量处理器(tpu)和中国的寒武纪处理器。

Cpu、gpu等处理器通过总线与内存相连,总线的传输速度决定了计算效率。中国自动化学会混合智能专业委员会副主任、复旦大学计算机科学学院教授张俊平告诉《科技日报》记者,人们正试图通过改进来减少公交车上的数据传输次数,提高计算效率。例如,研究人员使中央处理器具有一些图形处理器功能,或使图形处理器具有一些中央处理器功能。

标题:让内存干CPU的活儿 这项技术将芯片运行速度提升百倍

地址:http://www.ictaa.cn/hlwxw/6221.html