位置:编程技术网 > 云计算 > 正文 >

第一台可编程忆阻器计算机旨在将AI处理从云计算中降低

2019年10月16日 16:23来源:未知手机版

解读新婚姻法,下载小说网,s8总决赛

第一台可编程忆阻器计算机旨在将AI处理从云计算中降低 2019-10-16 10:30:06

忆阻器阵列芯片插入到定制计算机芯片中,形成了第一台可编程忆阻器计算机。该团队证明了它可以运行三种标准类型的机器学习算法。

密歇根大学开发了第一台可编程忆阻器计算机,而不仅仅是通过外部计算机操作的忆阻器阵列。

它可能导致直接在智能手机和传感器等能耗受限的小型设备上处理人工智能。智能手机AI处理器意味着不再需要将语音命令发送到云中进行解释,从而加快了响应时间。

UM的电子与计算机工程教授,《自然电子》研究的资深作者韦鲁说: 每个人都希望在智能手机上安装AI处理器,但您不希望手机的电池很快耗尽。

在医疗设备中,无需云即可运行AI算法的功能将实现更好的安全性和隐私性。

为什么忆阻器适合机器学习

实现这一目标的关键可能是称为忆阻器的高级计算机组件。该电路元件是带存储器的电阻器,具有可变电阻,可以用作信息存储的形式。由于忆阻器在同一位置存储和处理信息,因此它们可以绕开计算速度和功能的最大瓶颈:内存和处理器之间的连接。

这对于处理大量数据以执行诸如识别照片和视频中的对象或预测哪些医院患者感染风险更高的事情的机器学习算法尤其重要。程序员已经喜欢在图形处理单元上运行这些算法,而不是在计算机的主处理器(中央处理器)上运行。

在功耗和吞吐量方面,GPU以及非常定制和优化的数字电路被认为比CPU好约10-100倍。 陆说。 忆阻器AI处理器的性能可能再提高10到100倍。

GPU在机器学习任务上表现更好,因为它们具有数千个小的内核可一次运行所有计算,而不是一连串的计算等待它们在CPU中为数不多的强大内核之一上运行。

忆阻器阵列使这一点更进一步。每个忆阻器都可以进行自己的计算,从而允许一次在一个内核中执行数千个操作。在这个实验规模的计算机中,有5800多个忆阻器。商业设计可能包含数百万个。

忆阻器阵列特别适合于机器学习问题。这样做的原因是机器学习算法将数据转换为矢量的方法,本质上就是数据点列表。例如,在预测患者在医院中感染的风险时,此向量可能会列出患者风险因素的数字表示。

然后,机器学习算法将这些 输入 向量与存储在内存中的 特征 向量进行比较。这些特征向量代表数据的某些特征(例如潜在疾病的存在)。如果匹配,则系统知道输入数据具有该特征。向量存储在矩阵中,就像数学电子表格一样,这些矩阵可以直接映射到忆阻器阵列上。

此外,随着数据通过阵列馈送,大部分的数学处理都是通过忆阻器中的自然电阻进行的,从而无需将特征向量移入和移出内存即可执行计算。这使得阵列在复杂的矩阵计算中非常高效。早期的研究表明忆阻器阵列可以加快机器学习的速度,但是它们需要外部计算元件才能发挥作用。

建立可编程的忆阻器计算机

为了构建第一台可编程忆阻器计算机,Lu的团队与UM的电气和计算机工程副教授Zhang Zhengya教授和Michael Flynn教授一起设计了一种芯片,该芯片可以将忆阻器阵列与编程和运行所需的所有其他元素集成在一起它。这些组件包括常规的数字处理器和通信通道,以及用作模拟忆阻器阵列和计算机其余部分之间的解释器的数字/模拟转换器。

Lu的团队随后将忆阻器阵列直接集成在UM的Lurie Nanofabrication Facility的芯片上。他们还开发了将机器学习算法映射到忆阻器阵列的矩阵状结构的软件。

该团队通过三种基本的机器学习算法演示了该设备:

Perceptron,用于对信息进行分类。他们能够以100%的精度识别出不完美的希腊字母

稀疏编码,可对数据(尤其是图像)进行压缩和分类。该计算机能够找到最有效的方法来以一组确定的模式重建图像,并具有100%的准确性

本文地址:http://www.reviewcode.cn/yunjisuan/83088.html 转载请注明出处!

今日热点资讯