位置:编程技术网 > 研发管理 > 正文 >

人工智能颠覆传统计算方式:让内存更接近计算资源

2019年03月13日 15:59来源:未知手机版

青春美少女,旌德县论坛华硕笔记本电池坏了,四弟太诱人,郴州电视台天天播报,置业顾问简历,厦门大学录取分数线,创意diy,微型盆景

大数据应用推动了 让内存更接近计算资源 的架构需求,而人工智能和机器学习则进一步证明了硬件和硬件架构在成功部署中发挥的关键作用。不过有一个关键问题 数据处理应该在哪里进行。

在Forrester Research近期的一项调查中,有89%的受访者表示,计算和内存在架构上紧密相连是至关重要的。这项调研由美光(Micron Technology)公司委托,调查结果中还发现,内存和存储是如今限制人工智能和机器学习发展的非常重要的因素。此外,还有超过75%的受访者指出,他们需要升级或重新构建内存和存储架构以打破这种局限性。

因为机器学习能够通过神经网络对庞大的数据矩阵进行多次累积操作,这使得大数据及其分析过程中的很多问题得以解决。同时,随着更多结果的产生,这样的操作还会反复进行,以生成最佳路径和最佳选择的算法,并且这些算法都是通过处理数据进行反复学习的。

美光公司企业战略副总裁Colm Lysaght表示,因为数据量非常大,所以解决内存问题的常见方案就是增加更多的DRAM(Dynamic Random Access Memory),即动态随机存取存储器。这是最为常见的系统内存,能够将性能瓶颈从原始计算转移到数据所在的位置。 内存和存储就是数据所在的地方。我们必须把数据带入CPU,然后再返回,如此反复。因为这些庞大的数据集都需要被处理。

Lysaght说,如果能够让计算和内存更紧密地结合在一起,就意味着可以节省更多电力能源,因为在内存和计算之间就不需要往返太多次。 这会提高性能,因为数据处理直接发生在它所在的位置。

 

▲美光认为,现有内存和存储技术(例如DRAM和3D NAND SSD)为人工智能架构提供了硬件,同时美光也在研究更新的技术(如内存处理器架构)以支持更多初创公司

在Lysaght看来,有很多不同的方法都可以打造出更好的架构。拿神经形态处理器举例,它在内部使用神经网络,并将内部核心数据分解为更多的较小颗粒。 因为要对大量的数据要进行处理,所以让更多的核心反复执行相对简单的操作是一种更好的解决方案, Lysaght说。

最近,内存公司Crossbar与Gyrfalcon Technology、mtes Neural Networks(mtesNN)、RoboSensing等公司一起,打造了一个致力于提供加速、节能型人工智能平台的联盟 SCAiLE(用于边缘学习的SCABLE AI)。该联盟将结合先进的加速硬件、电阻式RAM(ReRAM)和优化神经网络,打造就绪的低功耗解决方案,使得整个过程无需进行监督学习。

Crossbar公司战略营销和业务开发副总裁Sylvain Dubois表示,目前很多企业面临的挑战是,他们既希望在设备上采用人工智能,但是又不知道该怎么做,无论是智能扬声器、智能摄像头还是智能电视。而该联盟的目标,就是提供一个将所有必要部分组合在一起的平台。

Crossbar的主要贡献在于内存(特别是ReRAM),它将通过各种输入处理机器学习系统中的数据,包括文本、关键字、GPS坐标、传感器可视数据等大量非结构化数据。

Dubois设想了一种存储器阵列,它的架构能够以非常宽且高度并行的方式由实例中的每一个特定处理代码读取,实现在边缘设备中并行读取一千个字节。 如果匹配了,你就会知道该怎么做。如果没有匹配,那么这就是我们所说的学习曲率。 Dubois说。

例如,对摄像头传感器来说,该系统将能够在ReRAM阵列备用位置保存新事件或一组功能。 下次当有类似事件在这个摄像头前发生的时候,摄像头本身就能够在没有任何训练的情况下检测到该事件。 Dubois举例说。

这提供了一种完全不同的人工智能计算方式,因为如果出现需要快速决策的意外事件(例如关注安全性的交通场景)时,它就不再需要依赖于云中的训练能力,而能够在当下快速处理。

Forrester Research的这项研究表明,有越来越多的企业将在公有云和边缘位置进行数据分析,从而在边缘完成更多的机器学习能力。有51%的受访者表示,他们正在公有云中运行分析,预计未来三年这一比例将增加到61%。此外,有44%的人已经在边缘设备中进行数据分析,预测到2021年这一比例将增长到53%。

本文地址:http://www.reviewcode.cn/yanfaguanli/36443.html 转载请注明出处!

今日热点资讯