0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

詳談深度學(xué)習(xí)系統(tǒng)中實(shí)現(xiàn)記憶能力的唯一技術(shù)NTM

如意 ? 來(lái)源:OFweek電子工程網(wǎng) ? 作者:學(xué)術(shù)頭條 ? 2020-10-08 14:10 ? 次閱讀

在計(jì)算機(jī)科學(xué)中,沒(méi)有一門學(xué)科比深度學(xué)習(xí)更能從人類的記憶系統(tǒng)中受益。

自早期以來(lái),在深度學(xué)習(xí)領(lǐng)域,人們就一直致力于對(duì)模擬人類記憶的一些關(guān)鍵特征系統(tǒng)進(jìn)行建模。然而,想要為機(jī)器系統(tǒng)建立起類人的記憶結(jié)構(gòu),并非易事。

近日,區(qū)塊鏈分析公司IntoTheBlock CEO、Invector Labs首席科學(xué)家、哥倫比亞大學(xué)客座教授Jesus Rpdriguez發(fā)表文章,談?wù)搹纳窠?jīng)科學(xué)和認(rèn)知心理學(xué)的角度理解機(jī)器的記憶建模。

他認(rèn)為,神經(jīng)科學(xué)的記憶理論為我們理解智能存儲(chǔ)體系結(jié)構(gòu)的一些主要組成部分提供了基礎(chǔ),同時(shí),人類的記憶不僅僅是大腦物理結(jié)構(gòu)的副產(chǎn)品,而且還深受周圍環(huán)境的影響。

關(guān)記憶的神經(jīng)科學(xué)理論:綁定問(wèn)題

現(xiàn)代神經(jīng)科學(xué)的記憶理論涉及大腦的三個(gè)基本區(qū)域:丘腦(the thalamus)、前額葉(the prefrontal)、皮層和海馬體(cortex &the hippocampus)。

丘腦可以被認(rèn)為是一個(gè)路由器,它負(fù)責(zé)處理感官信息(視覺(jué)、觸覺(jué)、語(yǔ)言等),并將其傳遞到大腦的感覺(jué)皮層進(jìn)行評(píng)估。經(jīng)過(guò)評(píng)估的信息最終到達(dá)前額葉皮層,進(jìn)入我們的意識(shí)中,形成短期記憶。同時(shí),這些信息也被傳送到海馬體,海馬體將不同的片段分布到不同的皮質(zhì)中,形成長(zhǎng)期記憶。

而當(dāng)今神經(jīng)科學(xué)面臨的最大挑戰(zhàn)之一就是,我們?nèi)绾螌⒎稚⒌挠洃浰槠匦陆M合起來(lái),使其在人們回憶時(shí)構(gòu)成連貫的記憶。這就是“綁定問(wèn)題(the binding problem)”的主要內(nèi)容。

假設(shè)您曾經(jīng)歷一場(chǎng)考試,那么關(guān)于這一事件的記憶將被分解并儲(chǔ)存在大腦的不同區(qū)域中。然而,只需要小小的提示,例如聽到考試提示音或見到當(dāng)時(shí)的同伴,您就能回憶起關(guān)于這堂考試的各種記憶。

這是如何做到的呢?

一種理論認(rèn)為,記憶碎片是由不斷流過(guò)大腦的電磁振動(dòng)聯(lián)系在一起的。這些振動(dòng)在記憶碎片之間創(chuàng)造了一個(gè)時(shí)間(而非空間)聯(lián)系,允許它們同時(shí)被激活,因而最后成為凝聚一體的記憶。

關(guān)記憶的認(rèn)知心理學(xué)理論:?jiǎn)?dòng)與聯(lián)想

此外,為了解釋綁定問(wèn)題,我們還需要一些超越大腦的結(jié)構(gòu),以評(píng)估能夠影響記憶方式的各種心理背景因素。在認(rèn)知心理學(xué)中,試圖解釋聯(lián)想記憶本質(zhì)的主要理論之一被稱為啟動(dòng)效應(yīng)(the Priming Effect)。

設(shè)想一下,當(dāng)您聽到“考試”這個(gè)詞的時(shí)候,首先想到的是什么?可能是“書籍”,可能是某個(gè)日期,甚至可能是“興奮感”(手動(dòng)狗頭)。由此可見,僅僅是一個(gè)簡(jiǎn)單的詞語(yǔ),就可以喚起人的一系列復(fù)雜情緒甚至是其他相關(guān)的詞語(yǔ)。而這個(gè)過(guò)程實(shí)際就是:我們正在有效地想起相關(guān)的事物,或者說(shuō),我們正在“啟動(dòng)”其他記憶。

這一實(shí)驗(yàn)中最引人注目的其實(shí)是,人們根據(jù)提示檢索出相關(guān)單詞或記憶的速度有多快。在心理學(xué)中,這種現(xiàn)象也被稱為聯(lián)想一致化(Associatively Coherent)。

而且,啟動(dòng)效應(yīng)不僅適用于詞匯,還適用于情緒、身體反應(yīng)、本能等認(rèn)知現(xiàn)象。啟動(dòng)效應(yīng)告訴我們,記憶不僅是由主動(dòng)聯(lián)想方法來(lái)回憶的,而且是由“被啟動(dòng)的想法”來(lái)回憶的。

認(rèn)知心理學(xué)的另一個(gè)重要內(nèi)容則是我們回憶起特定事件的頻率。

例如,如果我問(wèn)你“在過(guò)去的十年里參加了多少場(chǎng)考試?” 如果你剛好最近就參加過(guò)一次考試或者特別快地得出答案者,那么這個(gè)數(shù)字很能被高估。相反,如果你并不喜歡上一次的考試經(jīng)歷,那么這個(gè)數(shù)字可能被低估。這個(gè)認(rèn)知過(guò)程被稱為可得性捷思法(the Availability Heuristic),它解釋了我們的記憶是如何被快速獲得的答案所深深影響。

深度學(xué)習(xí)的記憶機(jī)制:神經(jīng)圖靈機(jī)

那么深度學(xué)習(xí)算法具體該如何模仿上述這些理論從而形成類人記憶呢?答案其實(shí)不難得出:

a) 把一個(gè)內(nèi)存分成若干段,不同片段描述不同的知識(shí)領(lǐng)域

b) 將分散的片段重新組合成連貫的信息結(jié)構(gòu)

c) 根據(jù)上下文和不直接相關(guān)的信息以及外部數(shù)據(jù)引用來(lái)檢索數(shù)據(jù)

同時(shí),為了了解深度學(xué)習(xí)算法中的記憶相關(guān)性,我們應(yīng)該區(qū)分內(nèi)隱記憶implicit memory和外顯記憶Explicit Memory。隱性知識(shí)通常是潛意識(shí)的,因此很難解釋,例如識(shí)別圖片中的猴子或口語(yǔ)句子中的語(yǔ)氣和情緒。顯性知識(shí)則很容易以陳述性方式建模。例如,“猴子是一種動(dòng)物”或“某些形容詞具有攻擊性”,這都是顯性知識(shí)的典型例子。

再想象一下傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),它們往往有數(shù)百萬(wàn)個(gè)相互連接的節(jié)點(diǎn),卻缺乏一個(gè)工作記憶系統(tǒng),用來(lái)存儲(chǔ)已推斷出的知識(shí)片段及其相互關(guān)系,以便從網(wǎng)絡(luò)的不同層加入新信息。

而在這一領(lǐng)域,最流行的技術(shù)之一是神經(jīng)圖靈機(jī)(Neural Turing Machines,NTM),由DeepMind于2014年引入。NTM也屬于深層神經(jīng)網(wǎng)絡(luò), 但是它擴(kuò)展出一個(gè)具有存儲(chǔ)完整向量的記憶單元,并使用直觀推斷(heuristics)來(lái)讀寫信息。

例如,NTM實(shí)現(xiàn)了一種稱為基于內(nèi)容的尋址機(jī)制,它可以根據(jù)輸入信息來(lái)檢索向量,這與人類基于文字經(jīng)驗(yàn)來(lái)回憶相關(guān)記憶的方式相似。

此外,NTM還包括一種機(jī)制,能夠根據(jù)內(nèi)存單元被尋址的頻率來(lái)增加其顯著性。

詳談深度學(xué)習(xí)系統(tǒng)中實(shí)現(xiàn)記憶能力的唯一技術(shù)NTM

NTM并不是在深度學(xué)習(xí)系統(tǒng)中實(shí)現(xiàn)記憶能力的唯一技術(shù),但它無(wú)疑是最受歡迎的技術(shù)之一。

模仿人類記憶的生理和心理功能并不是一件容易的事,這已經(jīng)成為深度學(xué)習(xí)領(lǐng)域中最重要的研究領(lǐng)域之一。
責(zé)編AJX

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    47314

    瀏覽量

    238648
  • 記憶
    +關(guān)注

    關(guān)注

    0

    文章

    6

    瀏覽量

    13889
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5503

    瀏覽量

    121206
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    GPU在深度學(xué)習(xí)的應(yīng)用 GPUs在圖形設(shè)計(jì)的作用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心部分,已經(jīng)成為推動(dòng)技術(shù)進(jìn)步的重要力量。GPU(圖形處理單元)在深度
    的頭像 發(fā)表于 11-19 10:55 ?538次閱讀

    NPU在深度學(xué)習(xí)的應(yīng)用

    設(shè)計(jì)的硬件加速器,它在深度學(xué)習(xí)的應(yīng)用日益廣泛。 1. NPU的基本概念 NPU是種專門針對(duì)深度學(xué)習(xí)
    的頭像 發(fā)表于 11-14 15:17 ?607次閱讀

    pcie在深度學(xué)習(xí)的應(yīng)用

    與主機(jī)系統(tǒng)連接,提供必要的計(jì)算支持。 2. PCIe技術(shù)概述 PCIe是種點(diǎn)對(duì)點(diǎn)串行連接,用于計(jì)算機(jī)內(nèi)部硬件組件之間的連接。它以其高速數(shù)據(jù)傳輸能力和低延遲特性而聞名,是連接高性能硬件
    的頭像 發(fā)表于 11-13 10:39 ?408次閱讀

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)的應(yīng)用廣泛且重要,以下是些GPU深度學(xué)習(xí)應(yīng)用案例:
    的頭像 發(fā)表于 10-27 11:13 ?399次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    人類的學(xué)習(xí)過(guò)程,實(shí)現(xiàn)對(duì)復(fù)雜數(shù)據(jù)的學(xué)習(xí)和識(shí)別。AI大模型則是指模型的參數(shù)數(shù)量巨大,需要龐大的計(jì)算資源來(lái)進(jìn)行訓(xùn)練和推理。深度學(xué)習(xí)算法為AI大模型
    的頭像 發(fā)表于 10-23 15:25 ?788次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    。 總之,F(xiàn)PGA 在深度學(xué)習(xí)領(lǐng)域具有很大的發(fā)展?jié)摿蜋C(jī)會(huì),但也面臨些挑戰(zhàn)。隨著技術(shù)的不斷進(jìn)步和市場(chǎng)的不斷發(fā)展,F(xiàn)PGA 在深度
    發(fā)表于 09-27 20:53

    利用Matlab函數(shù)實(shí)現(xiàn)深度學(xué)習(xí)算法

    在Matlab實(shí)現(xiàn)深度學(xué)習(xí)算法是個(gè)復(fù)雜但強(qiáng)大的過(guò)程,可以應(yīng)用于各種領(lǐng)域,如圖像識(shí)別、自然語(yǔ)言處理、時(shí)間序列預(yù)測(cè)等。這里,我將概述
    的頭像 發(fā)表于 07-14 14:21 ?2255次閱讀

    深度學(xué)習(xí)反卷積的原理和應(yīng)用

    像分割、圖像重建和生成對(duì)抗網(wǎng)絡(luò)(GANs)等,反卷積展現(xiàn)出了其獨(dú)特的優(yōu)勢(shì)和廣泛的應(yīng)用前景。本文將詳細(xì)探討深度學(xué)習(xí)的反卷積技術(shù),包括其定義、原理、實(shí)
    的頭像 發(fā)表于 07-14 10:22 ?1806次閱讀

    深度學(xué)習(xí)模型的過(guò)擬合與正則化

    深度學(xué)習(xí)的廣闊領(lǐng)域中,模型訓(xùn)練的核心目標(biāo)之實(shí)現(xiàn)對(duì)未知數(shù)據(jù)的準(zhǔn)確預(yù)測(cè)。然而,在實(shí)際應(yīng)用,我們經(jīng)常會(huì)遇到
    的頭像 發(fā)表于 07-09 15:56 ?975次閱讀

    深度學(xué)習(xí)的時(shí)間序列分類方法

    時(shí)間序列分類(Time Series Classification, TSC)是機(jī)器學(xué)習(xí)深度學(xué)習(xí)領(lǐng)域的重要任務(wù)之,廣泛應(yīng)用于人體活動(dòng)識(shí)別、系統(tǒng)
    的頭像 發(fā)表于 07-09 15:54 ?954次閱讀

    深度學(xué)習(xí)的無(wú)監(jiān)督學(xué)習(xí)方法綜述

    應(yīng)用往往難以實(shí)現(xiàn)。因此,無(wú)監(jiān)督學(xué)習(xí)深度學(xué)習(xí)扮演著越來(lái)越重要的角色。本文旨在綜述
    的頭像 發(fā)表于 07-09 10:50 ?761次閱讀

    深度學(xué)習(xí)在視覺(jué)檢測(cè)的應(yīng)用

    深度學(xué)習(xí)是機(jī)器學(xué)習(xí)領(lǐng)域中的個(gè)重要分支,其核心在于通過(guò)構(gòu)建具有多層次的神經(jīng)網(wǎng)絡(luò)模型,使計(jì)算機(jī)能夠從大量數(shù)據(jù)自動(dòng)
    的頭像 發(fā)表于 07-08 10:27 ?734次閱讀

    深度學(xué)習(xí)在自動(dòng)駕駛的關(guān)鍵技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,自動(dòng)駕駛技術(shù)作為其中的重要分支,正逐漸走向成熟。在自動(dòng)駕駛系統(tǒng)深度學(xué)習(xí)
    的頭像 發(fā)表于 07-01 11:40 ?774次閱讀

    FPGA在深度學(xué)習(xí)應(yīng)用或?qū)⑷〈鶪PU

    現(xiàn)場(chǎng)可編程門陣列 (FPGA) 解決了 GPU 在運(yùn)行深度學(xué)習(xí)模型時(shí)面臨的許多問(wèn)題 在過(guò)去的十年里,人工智能的再次興起使顯卡行業(yè)受益匪淺。英偉達(dá) (Nvidia) 和 AMD 等公司的股價(jià)也大幅
    發(fā)表于 03-21 15:19

    為什么深度學(xué)習(xí)的效果更好?

    導(dǎo)讀深度學(xué)習(xí)是機(jī)器學(xué)習(xí)個(gè)子集,已成為人工智能領(lǐng)域的項(xiàng)變革性技術(shù),在從計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處
    的頭像 發(fā)表于 03-09 08:26 ?630次閱讀
    為什么<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的效果更好?