侵权投诉
订阅
纠错
加入自媒体

光子张量CPU:迸发5G机器学习新活力

翻译自——EEtimes

近期,一种用光子张量处理器代替GPU来进行机器学习的神经网络计算的新方法表明,在处理光学数据传输的性能上可以提高2-3阶。这也表明光子处理器具有增强电子系统的潜力,并可能在5G网络边缘设备中表现强劲。

美国乔治华盛顿大学电子和计算机工程系的Mario Miscuglio和Volker Sorger在《应用物理评论杂志》上发表了一篇论文,题为《基于光子的处理单元使更复杂的机器学习成为可能》。

在他们的方法中,光子张量核并行执行矩阵乘法,这提高了深度学习的速度和效率。在机器学习中,神经网络被训练来学习如何在不可见的数据上执行无监督的决策和分类任务。一旦神经网络对数据进行了训练,它就可以产生一种推断,从而对对象和模式进行识别和分类,并在数据中找到一个特征。

光子TPU并行存储和处理数据,具有电光互连的特点,可以有效地读写光存储器,并与其他架构进行接口。

作者之一Mario Miscuglio表示:“我们发现集成了高效光存储的集成光子平台可以获得与张量处理单元相同的操作,但它们只消耗一小部分的功率,并具有更高的吞吐量,如果经过适当的训练,可以用于以光速进行推理。”

大多数神经网络旨在模仿人类大脑的多层相互连接的神经元。表示这些网络的一种有效方法是将矩阵和向量相乘的复合函数。这种表示方式允许通过专门用于向量化操作(如矩阵乘法)的架构来执行并行操作。

(a)光子张量核(PTC)由一个16点积引擎组成,内在独立地逐列逐行逐点乘法和累加。点积引擎执行两个向量之间的乘法。输入矩阵的第i行由由高速(如马赫-曾德尔)调制器调制的波分复用信号给出。通过适当设置核矩阵的权值状态,将核矩阵的第j列加载到光子存储器中。利用光-物质与相变存储器的相互作用,利用微环谐振器(MRR)对输入信号进行频谱滤波,并采用看似量子化的电吸收方案进行加权。(例如调幅),从而执行按元素进行的乘法。使用光检测器将元素式乘法非相干求和,这相当于MAC操作(Dij)。

任务越智能化,预测精度就越高,网络就越复杂。这样的网络需要更大的计算量和更大的处理能力。当前适合于深度学习的数字处理器,如图形处理单元(GPU)或张量处理单元(TPU),由于所需的功率以及处理器和存储器之间电子数据的缓慢传输,在执行更复杂、更精确的操作方面受到了限制。

研究人员表明,他们的TPU性能可以比电子TPU高出2-3个数量级。对于计算节点分布式网络和在网络边缘(如5G)执行高吞吐量智能任务的引擎来说,光子可能是一个理想的匹配。在网络边缘,数据信号可能已经以来自监控摄像机、光学传感器和其他来源的光子的形式存在。

Miscuglio:“光子专用处理器可以节省大量的能源,提高响应时间并减少数据中心的流量。”对于终端用户来说,这意味着处理数据的速度要快得多,因为数据的很大一部分是预处理的,这意味着只需要将其余部分数据发送到云或数据中心。

1  2  下一页>  
声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号