0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

神經(jīng)擬態(tài)芯片掌握多種氣味神經(jīng)表征

汽車玩家 ? 來源:科技日報 ? 作者:劉 艷 ? 2020-04-08 16:45 ? 次閱讀

除了會看會聽,還會“聞”。近日,一直致力于模仿人類五感的人工智能又有新突破,通過神經(jīng)擬態(tài)芯片,人工智能已經(jīng)掌握了丙酮、氨和甲烷等10種氣味的神經(jīng)表征,強烈的環(huán)境干擾也不會影響它對氣味的準(zhǔn)確識別。這項由英特爾研究院與美國康奈爾大學(xué)共同參與的研究成果,日前發(fā)表于《自然·機器智能》雜志上。

神經(jīng)擬態(tài)即通過模擬人腦神經(jīng)元的工作機制,讓計算機具備像人一樣的自然智能特性。英特爾公布的另一項研究顯示,將上述768塊神經(jīng)擬態(tài)芯片集成在5臺標(biāo)準(zhǔn)服務(wù)器大小的機箱中形成的神經(jīng)擬態(tài)系統(tǒng)——Pohoiki Springs,已經(jīng)相當(dāng)于擁有了1億個神經(jīng)元的大腦,而這相當(dāng)于一個小型哺乳動物的大腦神經(jīng)元數(shù)量。

通過堆疊芯片形成的神經(jīng)擬態(tài)系統(tǒng)似乎讓我們看到了“機器可以和人一樣聰明”的希望,那神經(jīng)擬態(tài)芯片及大規(guī)模集成系統(tǒng)的就緒,是否意味著“強認(rèn)知、小樣本學(xué)習(xí)”的神經(jīng)擬態(tài)計算有了規(guī)模商用的可能?

神經(jīng)擬態(tài)訓(xùn)練無需大量樣本

目前深度學(xué)習(xí)算法作為實現(xiàn)人工智能的重要技術(shù)手段,被廣泛應(yīng)用于各類人工智能成果中。對于以深度學(xué)習(xí)算法為支撐的人工智能成果,數(shù)據(jù)可以說是研究的血液。數(shù)據(jù)量越大,數(shù)據(jù)質(zhì)量越高,深度學(xué)習(xí)所表現(xiàn)的性能也就越好。但在不少研究環(huán)境中,由于涉及隱私安全以及客觀條件限制,有效數(shù)據(jù)難以獲得。

“深度學(xué)習(xí)雖然取得了長足進(jìn)步,但仍局限在圖像和語音等方面的分類和識別中?!庇⑻貭栔袊芯吭涸洪L宋繼強說,人類視覺、語音兩類數(shù)據(jù)容易獲得和標(biāo)注,滿足了深度學(xué)習(xí)的必要條件,研究及應(yīng)用相對成熟,但味覺和嗅覺的研究卻沒那么樂觀。

對于傳統(tǒng)的人工智能來說,主流的深度學(xué)習(xí)方法,可能需要設(shè)置上億個參數(shù),訓(xùn)練數(shù)十萬次,才能辨別出貓和狗的區(qū)別,更不用說更為陌生的氣味識別領(lǐng)域。但是,即便對于一個幾歲的嬰孩來說,他們辨認(rèn)動物、識別氣味只需要幾次就夠了。

普通人經(jīng)過訓(xùn)練能區(qū)分三四百種到數(shù)千種氣味,但現(xiàn)實世界可以區(qū)分的氣味超過萬種。為模擬人類嗅到氣味的大腦運行機制,研究人員采用了一套源自人類大腦嗅覺回路結(jié)構(gòu)和動力學(xué)相結(jié)合的神經(jīng)算法訓(xùn)練神經(jīng)擬態(tài)芯片,僅需單一樣本,神經(jīng)擬態(tài)芯片便可學(xué)會識別10種氣味,且不會破壞它對已學(xué)氣味的記憶。

宋繼強表示,即便是此前最先進(jìn)的深度學(xué)習(xí)解決方案,要達(dá)到與神經(jīng)擬態(tài)芯片相同的分類準(zhǔn)確率,也需要3000倍以上的訓(xùn)練樣本。

“理解大腦的神經(jīng)網(wǎng)絡(luò)如何解決這些復(fù)雜的計算問題,將為設(shè)計高效、強大的機器智能提供重要啟示?!庇⑻貭柹窠?jīng)擬態(tài)計算實驗室高級研究科學(xué)家納比爾·伊瑪目說,下一步計劃將這種方法推進(jìn)到更廣的應(yīng)用領(lǐng)域,包括從感官場景分析到規(guī)劃和決策等抽象問題。

芯片向人腦進(jìn)化成為可能

一只瓢蟲的大腦有25萬個到50萬個神經(jīng)元,蟑螂的大腦有100萬個神經(jīng)元,斑馬魚的大腦有1000萬個神經(jīng)元,小型哺乳動物大腦有1億個神經(jīng)元。

自然界中,即使最小的生物也能解決極為復(fù)雜的計算問題,很多昆蟲大腦的神經(jīng)元數(shù)目遠(yuǎn)低于100萬個,卻能實時跟蹤物體、導(dǎo)航和躲避障礙物。而人類大腦由860億個互相連接的神經(jīng)元組成,要讓人工智能變得和人一樣聰明談何容易。

目前由兩個上述神經(jīng)擬態(tài)芯片組成的神經(jīng)擬態(tài)系統(tǒng)有26.2萬個神經(jīng)元,相當(dāng)于擁有了一只瓢蟲的智慧,而由768塊神經(jīng)擬態(tài)芯片組成的神經(jīng)擬態(tài)系統(tǒng)的智慧則追上了倉鼠。

如果神經(jīng)元的組織方式?jīng)Q定了大腦的思考方式,那么實現(xiàn)神經(jīng)擬態(tài)計算,首先需要構(gòu)建一個模擬大腦神經(jīng)元工作的計算芯片。宋繼強說:“我們試圖觀察、學(xué)習(xí)和理解大腦的運行,并在計算機芯片上復(fù)制。”

德國海德堡大學(xué)物理學(xué)家卡爾海因茨·邁耶是神經(jīng)擬態(tài)學(xué)工程師們的領(lǐng)軍人物,在他看來,人類大腦具有低功耗、容錯及無需編程三大特點,雖然人類大腦功率只有20瓦特左右,并且時刻都在失去神經(jīng)元,卻不影響它對這個世界的運算、理解和應(yīng)對。相比之下,試圖模擬人腦的超級計算機卻必須預(yù)設(shè)算法,動輒需要幾百萬瓦特的功率,失去一個晶體管就能破壞一個微處理器

宋繼強說:“深度學(xué)習(xí)的功率越來越高,現(xiàn)在即便訓(xùn)練一個圖像識別模型,都需要數(shù)千瓦特,能源消耗已成為大規(guī)模AI部署的障礙?!?/p>

而擁有存儲和計算一體結(jié)構(gòu)的神經(jīng)擬態(tài)芯片,節(jié)約了傳統(tǒng)計算架構(gòu)中處理單元和存儲器間通信所消耗的時間和功耗。

2017年,全球首款自主學(xué)習(xí)神經(jīng)擬態(tài)芯片問世,包含13萬個神經(jīng)元和1.28億個突觸,使芯片向人腦進(jìn)化成為可能。

如果說深度學(xué)習(xí)是通過大量標(biāo)注數(shù)據(jù)讓機器學(xué)習(xí)解決某一問題,如AlphaGO沒有學(xué)習(xí)象棋前,只會下圍棋,神經(jīng)擬態(tài)計算就是通過模擬人腦神經(jīng)元工作機制,讓人工智能不只局限于某一領(lǐng)域。

在神經(jīng)擬態(tài)芯片展示的學(xué)會的各種能力中,不僅包括實時識別手勢、使用新型人造皮膚閱讀盲文、還包括通過自主學(xué)習(xí)獲得視覺地標(biāo)確定方向及學(xué)習(xí)新氣味,而上述每項功能只消耗數(shù)十毫瓦。

有專家認(rèn)為,這一突破為科學(xué)研究需要的可自主、互聯(lián)的實時、動態(tài)數(shù)據(jù)處理新方法奠定了基礎(chǔ),擴展了蓬勃興起的邊緣計算應(yīng)用前景。

要商用還需通用計算架構(gòu)

在深度學(xué)習(xí)、機器學(xué)習(xí)之后,神經(jīng)擬態(tài)計算被認(rèn)為是推動人工智能進(jìn)入新階段的重要手段。雖然量子計算也擅長大規(guī)模計算,在某些任務(wù)中,它的理論可擴展性甚至超過神經(jīng)擬態(tài)系統(tǒng),但相比神經(jīng)擬態(tài)計算,量子計算離真正商用還有不小的距離。

雖然看上去神經(jīng)擬態(tài)芯片的商用比量子計算更近一步,部分研究機構(gòu)已展示了很多神經(jīng)擬態(tài)計算應(yīng)用,但要大規(guī)模商用,還需要解決通用性不足的問題。

“距離將產(chǎn)品推向市場,我們還要等待數(shù)年?!庇⑻貭柹窠?jīng)擬態(tài)計算實驗室主任邁克·戴維斯說,我們真正感興趣的是找到一種像馮·諾依曼架構(gòu)那樣相對通用的新型計算架構(gòu)。這才是真正擴展可應(yīng)用通用計算產(chǎn)品組合的開始。

研究機構(gòu)Gartner預(yù)測,2025年,神經(jīng)擬態(tài)芯片有望取代GPU,成為先進(jìn)人工智能部署的主要計算架構(gòu)。

宋繼強不完全認(rèn)同這種說法:“機器學(xué)習(xí)在很多領(lǐng)域依然是目前最好的訓(xùn)練、學(xué)習(xí)手段之一。只有將多種技術(shù)靈活的運用到人工智能領(lǐng)域,它才能真正成為惠及民生的產(chǎn)業(yè)。”

宋繼強強調(diào),Pohoiki Springs等神經(jīng)擬態(tài)系統(tǒng)仍處于研究階段,設(shè)計目的并非取代傳統(tǒng)的計算系統(tǒng),而是為研究人員提供工具來開發(fā)和描繪新的算法。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 芯片
    +關(guān)注

    關(guān)注

    456

    文章

    51037

    瀏覽量

    425486
  • 人工智能
    +關(guān)注

    關(guān)注

    1792

    文章

    47514

    瀏覽量

    239244
收藏 人收藏

    評論

    相關(guān)推薦

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機器學(xué)習(xí)的基礎(chǔ)知識和多種算法。在本文中,我們會介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工
    的頭像 發(fā)表于 01-09 10:24 ?185次閱讀
    人工<b class='flag-5'>神經(jīng)</b>網(wǎng)絡(luò)的原理和<b class='flag-5'>多種</b><b class='flag-5'>神經(jīng)</b>網(wǎng)絡(luò)架構(gòu)方法

    神經(jīng)芯片的主要特點和優(yōu)勢

    神經(jīng)芯片,又稱神經(jīng)芯片神經(jīng)元網(wǎng)絡(luò)芯片,是一種專為實現(xiàn)網(wǎng)絡(luò)通信和控制功能而設(shè)計的先進(jìn)半導(dǎo)體
    的頭像 發(fā)表于 07-12 16:42 ?1239次閱讀

    神經(jīng)元是什么?神經(jīng)元在神經(jīng)系統(tǒng)中的作用

    神經(jīng)元,又稱神經(jīng)細(xì)胞,是神經(jīng)系統(tǒng)的基本結(jié)構(gòu)和功能單位。它們負(fù)責(zé)接收、整合、傳導(dǎo)和傳遞信息,從而參與和調(diào)控神經(jīng)系統(tǒng)的各種活動。神經(jīng)元在形態(tài)上高
    的頭像 發(fā)表于 07-12 11:49 ?1474次閱讀
    <b class='flag-5'>神經(jīng)</b>元是什么?<b class='flag-5'>神經(jīng)</b>元在<b class='flag-5'>神經(jīng)</b>系統(tǒng)中的作用

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)的區(qū)別

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡稱ANNs)之間的關(guān)系與區(qū)別,是神經(jīng)網(wǎng)絡(luò)領(lǐng)域中一個基礎(chǔ)且重要的話題。本文將從定義、結(jié)構(gòu)、算法、應(yīng)用及未來發(fā)展等多個方面,詳細(xì)闡述BP
    的頭像 發(fā)表于 07-10 15:20 ?1212次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有時間序列特性的神經(jīng)網(wǎng)絡(luò),能夠處理序列數(shù)據(jù),具有記憶功能。以下是關(guān)于循環(huán)
    的頭像 發(fā)表于 07-05 09:52 ?611次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)是循環(huán)神經(jīng)網(wǎng)絡(luò)嗎

    遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡稱RNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡稱RNN)實際上是同一個概念,只是不同的翻譯方式
    的頭像 發(fā)表于 07-04 14:54 ?827次閱讀

    人工智能神經(jīng)網(wǎng)絡(luò)芯片的介紹

    人工智能神經(jīng)網(wǎng)絡(luò)芯片是一類專門為深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)算法設(shè)計的處理器。它們具有高性能、低功耗、可擴展等特點,廣泛應(yīng)用于圖像識別、語音識別、自然語言處理等領(lǐng)域。以下是關(guān)于人工智能神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-04 09:33 ?850次閱讀

    神經(jīng)網(wǎng)絡(luò)芯片與傳統(tǒng)芯片的區(qū)別和聯(lián)系

    引言 隨著人工智能技術(shù)的快速發(fā)展,深度學(xué)習(xí)算法在圖像識別、自然語言處理、語音識別等領(lǐng)域取得了顯著的成果。然而,深度學(xué)習(xí)算法對計算資源的需求非常高,傳統(tǒng)的計算芯片已經(jīng)無法滿足其需求。因此,神經(jīng)網(wǎng)絡(luò)芯片
    的頭像 發(fā)表于 07-04 09:31 ?1038次閱讀

    神經(jīng)網(wǎng)絡(luò)芯片和普通芯片區(qū)別

    神經(jīng)網(wǎng)絡(luò)芯片和普通芯片的區(qū)別是一個復(fù)雜而深入的話題,涉及到計算機科學(xué)、電子工程、人工智能等多個領(lǐng)域。 定義 神經(jīng)網(wǎng)絡(luò)芯片(Neural Ne
    的頭像 發(fā)表于 07-04 09:30 ?1285次閱讀

    如何使用神經(jīng)網(wǎng)絡(luò)進(jìn)行建模和預(yù)測

    輸入信號,對其進(jìn)行加權(quán)求和,然后通過激活函數(shù)進(jìn)行非線性轉(zhuǎn)換,生成輸出信號。通過這種方式,神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)輸入數(shù)據(jù)的復(fù)雜模式和關(guān)系。 神經(jīng)網(wǎng)絡(luò)的類型 神經(jīng)網(wǎng)絡(luò)有多種類型,包括前饋
    的頭像 發(fā)表于 07-03 10:23 ?798次閱讀

    bp神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)區(qū)別是什么

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是兩種不同類型的人工神經(jīng)網(wǎng)絡(luò),它們在
    的頭像 發(fā)表于 07-03 10:12 ?1286次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)和BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Networks,簡稱BPNN)是兩種
    的頭像 發(fā)表于 07-02 14:24 ?4509次閱讀

    GRU是什么?GRU模型如何讓你的神經(jīng)網(wǎng)絡(luò)更聰明 掌握時間 掌握未來

    大家平時經(jīng)常聽到的GRU是什么呢? 首先來認(rèn)識下CNN,CNN指代卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network),這是一種在人工智能和機器學(xué)習(xí)領(lǐng)域中常用的神經(jīng)網(wǎng)絡(luò)架構(gòu),特別
    發(fā)表于 06-13 11:42 ?1957次閱讀
    GRU是什么?GRU模型如何讓你的<b class='flag-5'>神經(jīng)</b>網(wǎng)絡(luò)更聰明 <b class='flag-5'>掌握</b>時間 <b class='flag-5'>掌握</b>未來

    神經(jīng)擬態(tài)計算是如何降耗的

    自計算機問世以來,運算效能與能耗消耗兩大議題始終困擾著計算產(chǎn)業(yè)。在人工智能崛起的背景下,全球各地科研機構(gòu)及相關(guān)公司積極探索提高處理器算力的新方法,神經(jīng)擬態(tài)處理器即是一種創(chuàng)新嘗試。
    的頭像 發(fā)表于 06-07 15:35 ?705次閱讀

    英特爾發(fā)布新一代神經(jīng)擬態(tài)系統(tǒng)Hala Point,11.5億神經(jīng)元,12倍性能提升

    作為英特爾首個神經(jīng)元數(shù)量達(dá)到11.5億的神經(jīng)擬態(tài)系統(tǒng),Hala Point為更高效、規(guī)模更大的AI開辟了道路。 ? 英特爾發(fā)布了代號為Hala Point的大型神經(jīng)
    的頭像 發(fā)表于 04-19 09:43 ?516次閱讀
    英特爾發(fā)布新一代<b class='flag-5'>神經(jīng)</b><b class='flag-5'>擬態(tài)</b>系統(tǒng)Hala Point,11.5億<b class='flag-5'>神經(jīng)</b>元,12倍性能提升