翻譯自——EEtimes
近期,一種用光子張量處理器代替GPU來進行機器學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)計算的新方法表明,在處理光學(xué)數(shù)據(jù)傳輸?shù)男阅苌峡梢蕴岣?-3階。這也表明光子處理器具有增強電子系統(tǒng)的潛力,并可能在5G網(wǎng)絡(luò)邊緣設(shè)備中表現(xiàn)強勁。
美國喬治華盛頓大學(xué)電子和計算機工程系的Mario Miscuglio和Volker Sorger在《應(yīng)用物理評論雜志》上發(fā)表了一篇論文,題為《基于光子的處理單元使更復(fù)雜的機器學(xué)習(xí)成為可能》。
在他們的方法中,光子張量核并行執(zhí)行矩陣乘法,這提高了深度學(xué)習(xí)的速度和效率。在機器學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)被訓(xùn)練來學(xué)習(xí)如何在不可見的數(shù)據(jù)上執(zhí)行無監(jiān)督的決策和分類任務(wù)。一旦神經(jīng)網(wǎng)絡(luò)對數(shù)據(jù)進行了訓(xùn)練,它就可以產(chǎn)生一種推斷,從而對對象和模式進行識別和分類,并在數(shù)據(jù)中找到一個特征。
光子TPU并行存儲和處理數(shù)據(jù),具有電光互連的特點,可以有效地讀寫光存儲器,并與其他架構(gòu)進行接口。
作者之一Mario Miscuglio表示:“我們發(fā)現(xiàn)集成了高效光存儲的集成光子平臺可以獲得與張量處理單元相同的操作,但它們只消耗一小部分的功率,并具有更高的吞吐量,如果經(jīng)過適當(dāng)?shù)挠?xùn)練,可以用于以光速進行推理?!?/p>
大多數(shù)神經(jīng)網(wǎng)絡(luò)旨在模仿人類大腦的多層相互連接的神經(jīng)元。表示這些網(wǎng)絡(luò)的一種有效方法是將矩陣和向量相乘的復(fù)合函數(shù)。這種表示方式允許通過專門用于向量化操作(如矩陣乘法)的架構(gòu)來執(zhí)行并行操作。
(a)光子張量核(PTC)由一個16點積引擎組成,內(nèi)在獨立地逐列逐行逐點乘法和累加。點積引擎執(zhí)行兩個向量之間的乘法。輸入矩陣的第i行由由高速(如馬赫-曾德爾)調(diào)制器調(diào)制的波分復(fù)用信號給出。通過適當(dāng)設(shè)置核矩陣的權(quán)值狀態(tài),將核矩陣的第j列加載到光子存儲器中。利用光-物質(zhì)與相變存儲器的相互作用,利用微環(huán)諧振器(MRR)對輸入信號進行頻譜濾波,并采用看似量子化的電吸收方案進行加權(quán)。(例如調(diào)幅),從而執(zhí)行按元素進行的乘法。使用光檢測器將元素式乘法非相干求和,這相當(dāng)于MAC操作(Dij)。
任務(wù)越智能化,預(yù)測精度就越高,網(wǎng)絡(luò)就越復(fù)雜。這樣的網(wǎng)絡(luò)需要更大的計算量和更大的處理能力。當(dāng)前適合于深度學(xué)習(xí)的數(shù)字處理器,如圖形處理單元(GPU)或張量處理單元(TPU),由于所需的功率以及處理器和存儲器之間電子數(shù)據(jù)的緩慢傳輸,在執(zhí)行更復(fù)雜、更精確的操作方面受到了限制。
研究人員表明,他們的TPU性能可以比電子TPU高出2-3個數(shù)量級。對于計算節(jié)點分布式網(wǎng)絡(luò)和在網(wǎng)絡(luò)邊緣(如5G)執(zhí)行高吞吐量智能任務(wù)的引擎來說,光子可能是一個理想的匹配。在網(wǎng)絡(luò)邊緣,數(shù)據(jù)信號可能已經(jīng)以來自監(jiān)控攝像機、光學(xué)傳感器和其他來源的光子的形式存在。
Miscuglio:“光子專用處理器可以節(jié)省大量的能源,提高響應(yīng)時間并減少數(shù)據(jù)中心的流量?!睂τ诮K端用戶來說,這意味著處理數(shù)據(jù)的速度要快得多,因為數(shù)據(jù)的很大一部分是預(yù)處理的,這意味著只需要將其余部分?jǐn)?shù)據(jù)發(fā)送到云或數(shù)據(jù)中心。
光與電的較量
本文給出了利用光路完成機器學(xué)習(xí)任務(wù)的實例。在大多數(shù)神經(jīng)網(wǎng)絡(luò)(NNs)中,每一個神經(jīng)元和每一層,以及網(wǎng)絡(luò)的互連,都是訓(xùn)練網(wǎng)絡(luò)的關(guān)鍵。根據(jù)訓(xùn)練,在其連通層中,神經(jīng)網(wǎng)絡(luò)強烈依賴于向量矩陣的數(shù)學(xué)運算,其中輸入數(shù)據(jù)和權(quán)重的大矩陣根據(jù)訓(xùn)練相乘。復(fù)雜的、多層的深層神經(jīng)網(wǎng)絡(luò)需要大量的帶寬和低延遲,以滿足執(zhí)行大矩陣乘法所需的大量操作,而不犧牲效率和速度。
那么如何有效地將這些矩陣相乘呢?對于通用處理器,矩陣操作在需要連續(xù)訪問緩存內(nèi)存的情況下串行進行,從而產(chǎn)生馮·諾依曼瓶頸[1]。而GPU和TPU等特殊的架構(gòu),有助于減少這些馮·諾依曼瓶頸的影響,使一些有效的機器學(xué)習(xí)模型成為可能。
與CPU相比,GPU和TPU意義重大,但是當(dāng)用它們來實現(xiàn)深度神經(jīng)網(wǎng)絡(luò)對大型2維數(shù)據(jù)集(如圖像)執(zhí)行推斷時,可能會耗電,并且需要更長的計算運行時間(大于幾十毫秒)。對于不那么復(fù)雜的推理任務(wù)來說,更小的矩陣乘法仍然受到不可忽略的延遲挑戰(zhàn),主要是由于各種內(nèi)存層次的訪問開銷和GPU中執(zhí)行每條指令的延遲。
作者建議,在這種情況下,有必要探索和重新研發(fā)當(dāng)前邏輯計算平臺的操作范式,在這種邏輯計算平臺中,矩陣代數(shù)依賴于對內(nèi)存的連續(xù)訪問。在這方面,光的波動性質(zhì)和相關(guān)的固有操作,如干涉和衍射,可以在提高計算吞吐量和同時降低神經(jīng)形態(tài)平臺的功耗方面發(fā)揮重要作用。
他們建議未來的技術(shù)應(yīng)該在其隨時間變化的輸入信號所在的領(lǐng)域執(zhí)行計算任務(wù),并利用其內(nèi)在的物理操作。在這個觀點中,光子是計算節(jié)點分布式網(wǎng)絡(luò)和在網(wǎng)絡(luò)邊緣(如5G)對大數(shù)據(jù)執(zhí)行智能任務(wù)的引擎的理想匹配,其中數(shù)據(jù)信號可能已經(jīng)以光子的形式存在(如監(jiān)控攝像頭、光學(xué)傳感器等),從而預(yù)先過濾和智能調(diào)節(jié)允許向下游流向數(shù)據(jù)中心和云系統(tǒng)的數(shù)據(jù)流量。
在這里,他們探索了利用光子張量核(PTC)的方法,該方法能夠與訓(xùn)練好的核進行一次性的4乘4矩陣的(非迭代的)和完全被動的乘法和積累。換句話說,一旦NN被訓(xùn)練,權(quán)重被存儲在一個4位的多層光子存儲器中,直接在芯片上實現(xiàn),而不需要額外的電光電路或芯片外DRAM。該光子存儲器具有低損耗、相變、納米光子電路的特點,其基礎(chǔ)是將G2Sb2Se5的導(dǎo)線沉積在一個平面波導(dǎo)上,可以使用電熱開關(guān)進行更新,并且可以完全通過光學(xué)讀取。電熱開關(guān)是由夾住相變存儲器(PCM)導(dǎo)線的鎢加熱電極實現(xiàn)。
作者表示,這項工作代表了實現(xiàn)并行存儲數(shù)據(jù)和處理的光子張量處理器的第一種方法,與提供實時分析的最先進的硬件加速器相比,它可以將相乘累積(MAC)操作的數(shù)量提高幾個數(shù)量級,同時顯著降低功耗和延遲。
與依賴邏輯門的數(shù)字電子學(xué)不同,在集成光子學(xué)中,乘法、積累和更一般的線性代數(shù)運算可以固有地、非迭代地執(zhí)行,得益于信號的電磁特性和有效的光物質(zhì)相互作用所提供的內(nèi)在并行性。在這方面,集成光子學(xué)是一個理想的平臺,映射特定的復(fù)雜操作一對一到硬件,在某些情況下算法,實現(xiàn)時間復(fù)雜度。
審核編輯:符乾江
-
AI
+關(guān)注
關(guān)注
87文章
30898瀏覽量
269128 -
ML
+關(guān)注
關(guān)注
0文章
149瀏覽量
34658 -
5G
+關(guān)注
關(guān)注
1354文章
48454瀏覽量
564291
發(fā)布評論請先 登錄
相關(guān)推薦
評論