美國杜克大學(xué)的生物工程師最近發(fā)明了一種基于卷積神經(jīng)網(wǎng)絡(luò) (CNN) 的自動(dòng)化手段,在保證準(zhǔn)確率的前提下,將專業(yè)人士需要十幾小時(shí)的興奮神經(jīng)標(biāo)識(shí)任務(wù),縮短至幾十分鐘,這會(huì)成為神經(jīng)科學(xué)領(lǐng)域的一大助力。
這項(xiàng)基于人工智能的新技術(shù),解決了神經(jīng)元研究領(lǐng)域一個(gè)關(guān)鍵性的瓶頸問題。論文作者之一、杜克大學(xué)生物醫(yī)學(xué)工程學(xué)院教授 Sain Farsiu 對(duì)此評(píng)價(jià)道:“這對(duì)實(shí)現(xiàn)完全繪制腦部活動(dòng)(圖像)至關(guān)重要。我們想要開發(fā)一種在不同實(shí)驗(yàn)設(shè)定下,都能實(shí)現(xiàn)近似人類準(zhǔn)確率的快速自動(dòng)化神經(jīng)元標(biāo)記方法,這是一項(xiàng)極具挑戰(zhàn)的任務(wù)。”
論文的第一作者、杜克大學(xué)醫(yī)學(xué)工程學(xué)院在讀博士生 Somayyeh Soltanian-Zadeh 這樣說到:“我們的方法基于深度學(xué)習(xí)模型,它不僅速度很快,并且能夠達(dá)到(甚至超越)人類專家在雙光子視頻上對(duì)興奮神經(jīng)元的標(biāo)記水平?!?/p>
在行為神經(jīng)學(xué)(Behavioural Neuroscience)領(lǐng)域,科學(xué)家們探尋動(dòng)物認(rèn)知、情緒和運(yùn)動(dòng)功能在大腦神經(jīng)細(xì)胞層面的具體機(jī)制。這對(duì)于理解某些神經(jīng)和心理疾病,如精神分裂和阿爾茲海默癥等疾病的發(fā)生機(jī)理有著至關(guān)重要的作用。
傳統(tǒng)細(xì)胞生物學(xué)的研究方法,是對(duì)離體培養(yǎng)的細(xì)胞進(jìn)行觀察。但對(duì)腦部神經(jīng)元來說,這種做法就行不通,因?yàn)樯窠?jīng)細(xì)胞必須在活體的大腦環(huán)境中才能正常運(yùn)轉(zhuǎn)。因此,誕生了雙光子成像技術(shù)(Two-photon Imaging),它利用光子的穿透性原理,在不損害細(xì)胞的情況下,對(duì)活體動(dòng)物的腦內(nèi)神經(jīng)元進(jìn)行實(shí)時(shí)掃描成像。
圖|雙光子顯微鏡工作示意圖,雙光子(鈣離子)成像截圖(來源:Takaki Komiyama/the University of California San Diego)
雖然有了成熟的影像技術(shù),但對(duì)影片上的單個(gè)神經(jīng)元進(jìn)行標(biāo)記卻是一項(xiàng)極具挑戰(zhàn)的工作。這就如同在一部電影里,需要時(shí)刻追蹤一個(gè)人物的位置和活動(dòng)。目前常用的方法,是手動(dòng)圈選所看到的每個(gè)興奮神經(jīng)元。問題是,一幅畫面中通常存在上千個(gè)細(xì)胞,想要準(zhǔn)確地識(shí)別,只能反復(fù)觀看影片。處理一段 30 分鐘的視頻成像,一個(gè)專業(yè)分析師通常要不吃不喝地連續(xù)工作 4 至 24 個(gè)小時(shí)。如果不同區(qū)域的細(xì)胞有重疊,則會(huì)進(jìn)一步增加識(shí)別的難度。
而杜克大學(xué)生物醫(yī)學(xué)工程學(xué)院這個(gè)團(tuán)隊(duì)所發(fā)明的興奮神經(jīng)元標(biāo)記方法,卻能在短短幾十分鐘內(nèi)完成上述工作,并且標(biāo)記準(zhǔn)確率與專業(yè)分析師相當(dāng)。這一新方法刊登在了近期的《美國國家科學(xué)學(xué)院院刊》(PNAS)上。
這一套新的人工智能興奮神經(jīng)元標(biāo)記方法由三個(gè)部分組成。首先是一系列的預(yù)處理步驟,包括對(duì)雙光子成像視頻進(jìn)行分割(每 120 幀為一個(gè)批次)和裁剪(去除邊框)等操作。
接著,將經(jīng)過預(yù)處理的視頻輸入一個(gè)稱作“時(shí)空神經(jīng)網(wǎng)絡(luò)”(Spatiotemporal Neural Network,簡稱 STNeuroNet)的 3D 卷積神經(jīng)網(wǎng)絡(luò)模型,它可以對(duì)每批輸入的 120 幀視頻圖像進(jìn)行分析,并生成一張概率圖,表示每個(gè)像素點(diǎn)上可能是興奮神經(jīng)元的概率。這一步是整個(gè)流程的核心。
最后一步,通過概率臨界值進(jìn)行選擇、重疊神經(jīng)元區(qū)分和整合的操作,將概率圖轉(zhuǎn)換成對(duì)整段視頻中興奮神經(jīng)元的定位和標(biāo)記。
圖|人工智能神經(jīng)元標(biāo)記方法(來源:Somayyeh Soltanian-Zadeh/Duke University)
STNeuroNet 的設(shè)計(jì)借鑒了計(jì)算機(jī)視頻處理領(lǐng)域使用的深度神經(jīng)網(wǎng)絡(luò)模型,具有一個(gè)復(fù)雜的結(jié)構(gòu)。
首先,它將輸入的視頻片段分別通過一個(gè)卷積層和一個(gè)平均池化層后,進(jìn)行整合拼接。
再經(jīng)過三個(gè)不同尺寸的密集特征堆 (dense feature stack),用來提取在不同維度下的特征圖譜 (feature map)。
三個(gè)特征圖譜分別經(jīng)過一個(gè) 50% 隨機(jī)失活的卷積層之后,再次經(jīng)過組合拼接和兩次上采樣 (up-sampling) 便回到了初始的分辨率。
最后經(jīng)過一個(gè)最大池化層和兩個(gè)平面卷積層,再由 Softmax 函數(shù)得到最終的概率圖 (probability map)。
STNeuroNet 模型使用的是自定義的 Dice-loss 目標(biāo)函數(shù)。
圖|基于DenseVNET的STNeuroNet模型(來源:Somayyeh Soltanian-Zadeh/Duke University)
研究結(jié)果顯示,STNeuroNet 模型的性能比現(xiàn)有的類似模型要優(yōu)越很多。在標(biāo)記準(zhǔn)確率方面,查全率(Recall)遠(yuǎn)超其他類似模型,查準(zhǔn)率(Precision)以及綜合評(píng)價(jià)指標(biāo)(F1)也比其他模型要高。
圖|模型準(zhǔn)確率比較(來源:Somayyeh Soltanian-Zadeh/Duke University)
識(shí)別速度方面,在不考慮預(yù)處理和后加工過程的情況下,STNeuroNet 的速度可以達(dá)到一秒鐘處理 27 幀視頻,這超過了所有現(xiàn)有的方法。即使考慮了前后處理的時(shí)間,處理 10 段視頻的效率也達(dá)到了約 17 幀每秒。
不僅如此,研究人員還發(fā)現(xiàn)在某一特定神經(jīng)元區(qū)域訓(xùn)練的 STNeuroNet 模型,即使在另外一個(gè)有著完全不同神經(jīng)元尺寸和密度的區(qū)域,同樣可以實(shí)現(xiàn)興奮神經(jīng)元的標(biāo)記,并且有較高準(zhǔn)確度。他們把這歸因于計(jì)算機(jī)神經(jīng)網(wǎng)絡(luò)模型優(yōu)秀的普遍性(generalizability)特征。
為了讓更多的科研人員能夠共享這項(xiàng)新技術(shù)帶來的便利,研究團(tuán)隊(duì)已經(jīng)在互聯(lián)網(wǎng)上將他們的全部代碼和數(shù)據(jù)公開。
基于這樣先進(jìn)的技術(shù)手段,神經(jīng)學(xué)家們或許很快就能實(shí)現(xiàn)對(duì)腦部神經(jīng)活動(dòng)的動(dòng)態(tài)實(shí)時(shí)分析。這個(gè)科研團(tuán)隊(duì)的負(fù)責(zé)人之一、杜克大學(xué)生物醫(yī)學(xué)工程學(xué)院助理教授 Yiyang Gong 已經(jīng)在著手研究老鼠各類行為與腦部神經(jīng)元興奮之間的關(guān)系。
就像 Soltanian-Zadeh 說的那樣:“對(duì)興奮神經(jīng)元更有效率地識(shí)別,能夠給研究腦部神經(jīng)與肢體行為之間的關(guān)系提供非常多的線索。這將會(huì)為神經(jīng)科學(xué)研究開啟一扇嶄新的大門?!?/p>
-
AI
+關(guān)注
關(guān)注
87文章
31320瀏覽量
269664 -
神經(jīng)元
+關(guān)注
關(guān)注
1文章
363瀏覽量
18484
原文標(biāo)題:杜克大學(xué)用 AI 識(shí)別神經(jīng)元,將 24 小時(shí)不吃不喝的工作變成 30 分鐘自動(dòng)完成
文章出處:【微信號(hào):deeptechchina,微信公眾號(hào):deeptechchina】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論