随着我们进入认知计算的新时代,并试图从日益庞大的数据集中收集信息,今天的许多计算机并没有经过优化来处理如此巨大的工作量。但IBM科学家开发并发表在《自然电子》(Nature Electronics)杂志上的一种新的混合概念,可能使运行分析和机器学习应用程序以及训练人工智能(AI)系统变得容易得多。
大多数计算机都是基于冯·诺依曼架构设计的,这种架构要求数据在处理单元和存储单元之间进行传输——根据IBM Research周二发表的一篇有关论文的博客文章,这是一个效率低下的过程。
IBM的新概念,称为混合精度内存计算,将冯诺依曼计算机与计算内存单元相结合。在本设计中,计算内存单元执行大部分计算任务,而冯·诺伊曼计算机提高了手头解决方案的准确性。
正如我们的姊妹站点ZDNet所指出的,这种方法可以为IBM提供针对Microsoft和谷歌一直在寻找的高性能和机器学习应用程序的硬件加速器的解决方案。
混合精度的内存计算依赖于一种叫做相变存储器(PCM)的设备,它可以通过编程达到一定的传导水平。ZDNet指出,PCM单元可以处理大部分的大容量数据处理,而不需要将数据传输到CPU或GPU,这使得处理速度更快,能耗更低。
“这样的计算可以在不牺牲整体计算精度的情况下,部分使用计算内存来执行,这一事实为高效、快速的大规模数据分析开辟了令人兴奋的新途径,”IBM研究员、论文的合著者伊万格洛斯·埃莱夫特里奥(Evangelos Eleftheriou)在帖子中写道。
他写道:“这种方法克服了当今冯•诺伊曼架构的一个关键挑战,在冯•诺伊曼架构中,海量数据传输已经成为最耗能的部分。”“这样的解决方案需求量很大,因为如果要使用标准技术,分析我们生成的不断增长的数据集将迅速将计算负载增加到百亿亿次。”
需要注意的是,这项研究仍然是新的,而且根据ZDNet, IBM的原型内存芯片需要达到千兆字节的内存才能用于数据中心规模的应用程序,而不是当前的一兆字节。但据ZDNet报道,IBM计划通过构建更大的PCM设备阵列,或让多个PCM设备同时运行来实现这一目标。