據(jù)報(bào)導(dǎo),博士生的研究團(tuán)隊(duì)近期推出了名為“mlx-graphs”的項(xiàng)目,致力于提升Apple Silicon芯片上神經(jīng)網(wǎng)絡(luò)的處理速率。使用該項(xiàng)目,大型數(shù)據(jù)集的訓(xùn)練速度將提升至原來的十倍之多。
據(jù)悉,該項(xiàng)目主要由博士生特里斯坦·比洛特(Tristan Bilot)、弗朗切斯科·法里納(Francesco Farina)以及MLX團(tuán)隊(duì)聯(lián)手推動。MLX是專門面向Apple Silicon發(fā)行的圖形神經(jīng)網(wǎng)絡(luò)庫。
比洛特指出,實(shí)施“mlx-graphs”后,Apple Silicon芯片對規(guī)模龐大的圖形數(shù)據(jù)集進(jìn)行訓(xùn)練的初始基準(zhǔn)速度將高達(dá)PyTorch Geometric和DGL等框架的十倍之高。
他強(qiáng)調(diào),盡管項(xiàng)目尚存提升空間,但這將有助于充分發(fā)揮Apple Silicon芯片的潛力。相關(guān)的開發(fā)庫已經(jīng)上傳到GitHub上,供公眾評審與試用,同時(shí)渴望收到使用者的反饋及PR建議。
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。
舉報(bào)投訴
-
芯片
-
神經(jīng)網(wǎng)絡(luò)
-
數(shù)據(jù)集
相關(guān)推薦
發(fā)生變化,導(dǎo)致神經(jīng)網(wǎng)絡(luò)的泛化能力下降。為了保持神經(jīng)網(wǎng)絡(luò)的性能,需要對其進(jìn)行重新訓(xùn)練。本文將詳細(xì)介紹重新訓(xùn)練神經(jīng)網(wǎng)絡(luò)的步驟和方法。 數(shù)據(jù)預(yù)處理 數(shù)據(jù)預(yù)處理是重新訓(xùn)練
發(fā)表于 07-11 10:25
?465次閱讀
BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是兩種在人工智能和機(jī)器學(xué)習(xí)領(lǐng)域
發(fā)表于 07-10 15:24
?1554次閱讀
BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡稱ANNs)之間的關(guān)系與區(qū)別,是神經(jīng)網(wǎng)絡(luò)領(lǐng)域中一個(gè)基礎(chǔ)且重要的話題。本文將從定義、結(jié)構(gòu)、算法、應(yīng)用及未來發(fā)展等多個(gè)方面,詳細(xì)闡述BP
發(fā)表于 07-10 15:20
?1108次閱讀
RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有時(shí)間序列特性的神經(jīng)網(wǎng)絡(luò),能夠處理序列數(shù)據(jù),具有記憶功能。以下是關(guān)于循環(huán)
發(fā)表于 07-05 09:52
?585次閱讀
遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡稱RNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡稱RNN)實(shí)際上是同一個(gè)概念,只是不同的翻譯方式
發(fā)表于 07-04 14:54
?785次閱讀
循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是深度學(xué)習(xí)領(lǐng)域中兩種非常重要的神經(jīng)網(wǎng)絡(luò)
發(fā)表于 07-04 14:24
?1311次閱讀
在探討深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)與基本神經(jīng)網(wǎng)絡(luò)(通常指傳統(tǒng)神經(jīng)網(wǎng)絡(luò)或前向神經(jīng)網(wǎng)絡(luò))的區(qū)別時(shí),我們需要從多個(gè)維度進(jìn)行深入分析。這些維度包括
發(fā)表于 07-04 13:20
?897次閱讀
人工智能神經(jīng)網(wǎng)絡(luò)芯片是一類專門為深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)算法設(shè)計(jì)的處理器。它們具有高性能、低功耗、可擴(kuò)展等特點(diǎn),廣泛應(yīng)用于圖像識別、語音識別、自然語言處理等領(lǐng)域。以下是關(guān)于人工智能
發(fā)表于 07-04 09:33
?783次閱讀
引言 隨著人工智能技術(shù)的快速發(fā)展,深度學(xué)習(xí)算法在圖像識別、自然語言處理、語音識別等領(lǐng)域取得了顯著的成果。然而,深度學(xué)習(xí)算法對計(jì)算資源的需求非常高,傳統(tǒng)的計(jì)算芯片已經(jīng)無法滿足其需求。因此,神經(jīng)網(wǎng)絡(luò)芯片
發(fā)表于 07-04 09:31
?967次閱讀
神經(jīng)網(wǎng)絡(luò)芯片和普通芯片的區(qū)別是一個(gè)復(fù)雜而深入的話題,涉及到計(jì)算機(jī)科學(xué)、電子工程、人工智能等多個(gè)領(lǐng)域。 定義 神經(jīng)網(wǎng)絡(luò)芯片(Neural Ne
發(fā)表于 07-04 09:30
?1178次閱讀
反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network,簡稱BP神經(jīng)網(wǎng)絡(luò))是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法來調(diào)整網(wǎng)絡(luò)中的權(quán)重和偏置,以達(dá)到最小化誤差的
發(fā)表于 07-03 11:00
?819次閱讀
BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)是一種常見的前饋神經(jīng)網(wǎng)絡(luò),它使用反向傳播算法來訓(xùn)練網(wǎng)絡(luò)。雖然BP神經(jīng)網(wǎng)絡(luò)在某些方面與深度
發(fā)表于 07-03 10:14
?860次閱讀
BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是兩種不同類型的人工神經(jīng)網(wǎng)絡(luò),它們在
發(fā)表于 07-03 10:12
?1204次閱讀
核心思想是通過卷積操作提取輸入數(shù)據(jù)的特征。與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)不同,卷積神經(jīng)網(wǎng)絡(luò)具有參數(shù)共享和局部連接的特點(diǎn),這使得其在處理圖像等高維數(shù)據(jù)時(shí)具有更高的效率和更好的性能。 卷積層 卷積層是卷積神經(jīng)網(wǎng)
發(fā)表于 07-02 16:47
?600次閱讀
卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)和BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Networks,簡稱BPNN)是兩種
發(fā)表于 07-02 14:24
?4113次閱讀
評論