30秒快讀
1、類腦智能在AI腦內(nèi)開了個“意識小劇場”,深度學習“不是煉金術(shù)” AI還能學什么?AI開源框架國產(chǎn)化,百度、曠視相對抗谷歌、臉書。
2、記者試圖探尋AI的下一個5年計劃。
01 類腦智能:在AI腦內(nèi)開個“意識小劇場”
類腦智能,被譽為人工智能的終極目標。人工智能在過去十年中基本實現(xiàn)了感知能力,但卻無法提高認知能力(推理、可解釋等)。因此,從認知心理學、腦科學等領域汲取靈感,推動感知智能向認知智能演進是人工智能下個十年的重點。
意識圖靈機:讓機器感受疼痛愉悅
當前,我們?nèi)蕴幱谌跞斯ぶ悄茈A段,尚不能制造出真正推理和解決問題的智能機器,機器也還沒有自主意識。那么,人工智能要怎樣產(chǎn)生意識?
人的大腦是如何產(chǎn)生疼痛、愉悅等各種感受的?有沒有辦法讓機器模擬甚至體驗這些感覺?
第三十屆(1995年)圖靈獎得主Manuel Blum與前美國卡內(nèi)基梅隆大學計算機科學系杰出教授Lenore Blum是夫妻倆,他們試圖通過數(shù)學模型來理解意識。受到認知神經(jīng)科學家Bernard Baars的“劇院模型”之啟發(fā),Blum夫婦提出了圖靈機器的正式模型——意識圖靈機(有意識的AI)。
短時記憶和長時記憶是認知科學里兩個重要概念。在劇院模型中,意識相當于短時記憶“舞臺”上所演繹的活動,坐在暗處的觀眾則代表長時記憶中的無意識處理器。在這個腦內(nèi)小劇場里,演員和觀眾是怎樣互動的呢?
Lenore舉了一個例子,某天你在派對上見到一個人,可怎么都想不起她的名字,等半小時后回到家,那個名字才突然從腦海中蹦出來。也就是說,半小時后那個名字才出現(xiàn)在你的意識或短時記憶中。
這中間發(fā)生了什么?你可能回憶了兩人第一次見面的情景,這個信息從短時記憶中廣播出來,并傳到大腦的各個長時記憶處理器上。其中一個處理器表示,她是做機器學習的。這個信息被傳到意識中,再廣播到各個處理器。接著又有一個處理器說,她的名字是T開頭的,這個信息也被廣播開來。于是半小時后,她的名字出現(xiàn)在了“舞臺”上,然而舞臺上的有意識自我對無意識自我在臺下的工作是不知情的。
假如獲得了勝利的是恐懼處理器,那么收到廣播的語言處理器可能會激活喊叫機制,發(fā)出一聲尖叫。由于一系列動態(tài)的下放,一些輸出機制可能被激活。通過語言對恐懼的回應,兩個長時記憶處理器之間產(chǎn)生了連接,不再像初始狀態(tài)下那樣只能通過短時記憶進行交流。
Lenore解釋道:“這正是赫布理論提出的‘一起激發(fā)的神經(jīng)元連在一起’,如果回應變多或者關聯(lián)變強,就會產(chǎn)生更多的連接。這種連接允許原本經(jīng)過短時記憶的有意識運算變得無意識,信息塊可以在處理器之間傳遞,很多高負荷工作就是以這種形式進行的。”
讓盲人有一天能看得見
雖然意識圖靈機的研究者強調(diào)簡潔性(simplicity),但是復旦大學類腦智能科學與技術(shù)研究院副院長林偉認為世界呈現(xiàn)出來的更多還是復雜性(complexity)。微觀層面上,每一個生命個體都有相應的智能行為;宏觀層面上,智能個體之間的互動會產(chǎn)生許多群體行為。而智能是怎么產(chǎn)生的?群體的智能行為又是怎樣產(chǎn)生?
“在這個過程中,需要采集相關數(shù)據(jù),進行相應的數(shù)據(jù)挖掘。在數(shù)據(jù)集里尋找形象的規(guī)律,甚至在這個階段就直接可以到商業(yè)和工業(yè)中去檢驗結(jié)果?!绷謧ケ硎荆送诰虼髷?shù)據(jù)的規(guī)律,還需要結(jié)合模型去做模擬仿真,因為有了模型就可以去做進一步的預測研判。
好比在類腦人工智能中,首先要認識腦結(jié)構(gòu)、解析腦機制,其后就是要模擬腦,將大腦中某些局部的功能在模型中表現(xiàn)出來,包括感知、認知、記憶、情感、情緒化表現(xiàn)等。這個模擬過程一定受到腦科學研究的啟發(fā),因為那些神經(jīng)形態(tài)的基本結(jié)構(gòu)實際上都可以為數(shù)學模型中最簡單的動力學模型提供基本框架和思路。
“每個人的大腦都是有差別的,能替代的也只是一部分。從這個意義上來說,‘增強腦’可能更恰當。比如說某些病患有一些功能的喪失,帕金森、老年癡呆等。通過和生物醫(yī)學工程的專家合作,可以把一些算法、控制器、芯片體系植入到相應的大腦。那樣的話也許盲人也會有看得見的一天,類腦研究可以起到這樣的作用?!绷謧フf道。
02?深度學習“不是煉金術(shù)” AI還能學什么?
AI正在日常生活中滲透。無論是刷臉進門、機器人掃地還是和智能音箱對話,這些應用均可歸類于人工智能的語音和圖像識別。的確,這一代人工智能的發(fā)展建立于AI對人類感知的模仿。這得益于人工智能背后的深度學習,通過神經(jīng)網(wǎng)絡層層分類信息?!爸皇乾F(xiàn)在AI還在弱智能階段,要讓機器解決問題,首先需要人工定義問題和機制,轉(zhuǎn)化為數(shù)學模型,并通過數(shù)據(jù)訓練模型。”在一位阿里系技術(shù)人員看來,如今的AI只能映射,還無法產(chǎn)生聯(lián)想,機器具備真實推理能力仍是人工智能的發(fā)展局限。
深度學習需要依賴海量的數(shù)據(jù),與此同時,這一代人工智能的應用帶來了對隱私、數(shù)據(jù)安全的擔憂。還有沒有針對這兩個困局的更好解決方法?今年WAIC 2020上,聯(lián)邦學習、遷移學習是兩大熱詞,AI算法的演進版,在很多領域已經(jīng)落地,他們?yōu)槭裁茨芙鉀Q深度學習的困境?記者一路探尋。
聯(lián)邦學習:隱秘的數(shù)據(jù) 公開的模型
你的人臉信息,5毛一份。這是日前新華社記者在網(wǎng)絡黑市上發(fā)現(xiàn)的非法買賣。一時刷遍朋友圈。
當人們越來越依賴于刷臉支付,但如果這些生物信息被泄露給不法分子,加之你的身份證、銀行卡信息也被暴露,大眾難免擔心信息泄露的后果。
A方收集數(shù)據(jù),B方清洗數(shù)據(jù),轉(zhuǎn)移到C方建模訓練,最終賣給D方使用,每個環(huán)節(jié)都有著數(shù)據(jù)泄露隱患。
頗有預見性的,這一屆世界人工智能大會上,聯(lián)邦學習被屢次提及,它最大的特征是數(shù)據(jù)信息不離開本地設備,所謂“數(shù)據(jù)不出域”,但可以加密上傳訓練模型,服務器端綜合各自模型之后,再反饋給用戶模型改進方案。
AI技術(shù)人員楊建國認為,如果將傳統(tǒng)的AI深度學習看作是一場開卷考,那么聯(lián)邦學習是AI的一場閉卷考,以利用“隱秘”數(shù)據(jù)為前提。
萬向區(qū)塊鏈研究院院長肖風曾在世界人工智能大會上分享,區(qū)塊鏈技術(shù)的溯源特性能有效監(jiān)控數(shù)據(jù)的使用權(quán),一旦數(shù)據(jù)被泄露,信息將被記錄。這暗示區(qū)塊鏈技術(shù)在聯(lián)邦學習中的可能。
那么,區(qū)塊鏈技術(shù)是否已在AI領域使用?
一位溫州某區(qū)塊鏈企業(yè)CEO胡松(化名)告訴記者,目前區(qū)塊鏈還沒有在實際應用上與AI結(jié)合,仍在理論和概念階段,“近期區(qū)塊鏈行業(yè)比較沉默,老的故事還沒有應用,新的突破性概念還未誕生?!?/p>
遺憾的是,在和多位采訪對象溝通中,記者發(fā)現(xiàn),受限于“看不到的數(shù)據(jù)”,多家AI企業(yè)并不愿應用聯(lián)邦學習。
“聯(lián)邦學習可以使用一般機器學習能使用的所有算法,但需要額外加一些技術(shù)來滿足‘閉卷’的需求?!币虼耍瑮罱▏J為,除了數(shù)據(jù)隱私安全,目前一般機器學習存在的缺陷,聯(lián)邦學習無能為力。
滬上一位AI算法研究人員認為,聯(lián)邦學習在訓練模型時可能出現(xiàn)不收斂的問題,構(gòu)建的模型或許并不是最優(yōu)解。在實際運用中,聯(lián)邦學習對AI企業(yè)在終端數(shù)據(jù)之間的通信和計算開銷有一定要求。此外,聯(lián)邦學習在面對隱私的攻擊時可能存在安全漏洞,也無法較好控制學習時所使用的數(shù)據(jù)質(zhì)量。這些均是聯(lián)邦學習的缺陷。
不過,楊建國對此仍有期許,他看到聯(lián)邦學習的研究和技術(shù)在不斷擴展,這是積極的一面。
遷移學習:用小樣本快速得出答案
“你認為哪種機器學習方式可能會成為未來的主流?”當記者向多位AI行業(yè)的技術(shù)人士拋出這一問題時,多位采訪對象均將目光瞄向遷移學習。
韓林(化名)是一位醫(yī)學影像視覺深度學習的AI技術(shù)人員,疫情期間他利用百度飛槳開發(fā)了能快速識別新冠病癥的AI模型。
“飛槳上有100萬分類的圖像預訓練模型,利用這個模型,調(diào)整不同的初始化權(quán)重,通過遷移學習,能夠改善最終準確率。”在韓林看來,對開發(fā)者而言,遷移學習省去了從頭開始訓練的時間。
新冠疫情下,各大醫(yī)院緊急投入“AI閱片”,在上海計算機軟件技術(shù)開發(fā)中心人工智能技術(shù)研究應用與測評團隊負責人陳敏剛看來,正是通過將新冠肺炎病人的CT加入到經(jīng)過大量訓練的病毒性肺炎CT影像模型,經(jīng)過模型精調(diào)得出的成果。這個過程,便是遷移學習。
“當前針對小樣本的深度學習,主要依靠遷移學習的方法?!标惷粽f。
微眾銀行首席人工智能官楊強曾在一次公開演講中表示,在云端用戶群中,每臺手機其實是一個用戶,用戶和特征沒有重疊性,可以在保證隱私安全的條件下進行遷移學習。
但遷移學習并不是萬能的。韓林告訴記者,如果沒有一個和開發(fā)者所需相近的模型,開發(fā)者依然要面臨從零開始做模型訓練的困境。
“能有一套針對小數(shù)據(jù)樣本的準確算法一直是行業(yè)中的大難題?!币晃荒郴ヂ?lián)網(wǎng)巨頭公司的AI技術(shù)人員直言?!皣@數(shù)據(jù)量不足的情況”,是楊建國認為人工智能未來發(fā)展主攻方向。
對抗學習:為AI設置“陷阱” 以假亂真
以子之矛,攻子之盾。
當大眾驚嘆于AI功能強大的同時,也常常被AI的誤識別而震驚。一副帶有色塊的眼鏡能騙過人工智能,一張帶有色塊的阿爾卑斯山圖片能讓AI誤認為是一條大黃狗。
由于深度學習是黑箱算法,技術(shù)人員無法分析出為何AI技術(shù)走偏的原因。但韓林認為,這些問題很有價值。這便是對抗學習(GAN)。
所謂GAN,是指在訓練過程中,生成網(wǎng)絡G的目標是盡量生成真實的圖片去欺騙判別網(wǎng)絡D。而D的目標就是盡量把G生成的圖片和真實的圖片分別開來。這樣,G和D動態(tài)博弈,彼此在對抗中訓練能力。如果G騙過了D,那么就可以生成一張足以以假亂真的圖片。
“如果知道有色塊眼鏡可以欺騙機器算法,技術(shù)人員可以通過調(diào)整解決問題。如今人臉識別對用戶的姿勢和光照有比較嚴格要求,為的是防止人臉面具欺騙系統(tǒng)的事件再次產(chǎn)生。”韓林說。
在韓林看來,將深度學習中的一些非關鍵應用轉(zhuǎn)向關鍵應用,對抗問題將會越來越受到重視?!叭绻岩曈X識別運用到無人駕駛汽車上,行人只要戴上一副眼鏡便無法被系統(tǒng)識別,你認為廠商會不重視嗎?”他反問道。
但這是否意味著一輪輪的技術(shù)鴻溝。AI是否能夠解決道高一尺魔高一丈的困境?
“當前人工智能還是依賴于大數(shù)據(jù)和高算力,從弱智能時代到進一步發(fā)展,仍是一條漫長的路?!鼻笆鰷螦I算法技術(shù)人員總結(jié)道。
03?AI開源框架
百度、曠視想對抗谷歌、臉書
做AI項目,或許在很多人眼里,是一項仄長而復雜的工作,其實不然。實際操作中,開發(fā)者可以選擇AI深度學習框架,加載可在框架上運用的模塊,調(diào)整參數(shù),如同搭建樂高一樣做出想要的AI應用。框架,省去了開發(fā)者從零開始一行行寫代碼的前期工作準備。
這是AI深度學習框架的魅力。記者注意到,目前國外主流的深度學習框架有TensorFlow、PyTorch、Caffe等,而國內(nèi)的百度飛槳(Paddle Paddle)和曠視天元也吸引了一群受眾。
那么面對中外深度學習框架,眾多開發(fā)者會如何選擇?而國內(nèi)框架又會如何吸引新的開發(fā)者入局?
開發(fā)者:向國內(nèi)框架遷移
韓林(化名)是一名影像識別功能的開發(fā)者,新冠肺炎期間,他從醫(yī)學網(wǎng)站上找到CT轉(zhuǎn)成圖片作為數(shù)據(jù),并搭配參數(shù)進行模型訓練?!耙淮?521張影像的模型訓練,需要40-50分鐘。”他說。
接觸深度學習框架2年,韓林最終從TensorFlow轉(zhuǎn)到飛槳。他認為,飛槳API比TensorFlow更簡潔,調(diào)試組網(wǎng)代碼也更方便。
“當時做了一個比較復雜的模型,用TensorFlow調(diào)整模型結(jié)構(gòu)一個月沒有實現(xiàn)收斂,但用飛槳一周就完成了?!边@是他接觸飛槳時的第一印象。
林蕓(化名)從事的是文本處理技術(shù)工作,易用性強,是她選擇飛槳文心的緣由。
上海聰鏈信息科技有限公司創(chuàng)始人丁強則是曠視天元框架的擁躉。在他看來,曠視在視覺識別領域的優(yōu)勢,使得天元更適用于該場景的開發(fā)。疫情期間,曠視在10天之內(nèi)推出“明驥AI智能測溫系統(tǒng)”,通過天元框架對算法模型進行專項訓練與優(yōu)化升級,精準定位到額頭再快速測溫,誤差在±0.3℃以內(nèi)。
上海埃瓦智能科技有限公司創(chuàng)始人王赟則考慮到3D視覺芯片的推廣應用,選擇了騰訊系的深度學習框架Angel。
AI開發(fā)者王劍(化名)向《IT時報》記者給出他選擇國內(nèi)深度學習框架的考量:社區(qū)規(guī)模。“社區(qū)強大,框架會越來越好,因為用的人多,如果論文作者提供的代碼都是國內(nèi)某個框架的話,這個框架會有更多人去完善升級?!彼f。
百度方面透露,截至目前,飛槳平臺已經(jīng)凝聚194萬開發(fā)者,8.4萬的企業(yè)在平臺上創(chuàng)建了超過23.3萬個模型。在主流開源社區(qū)整體star數(shù)超過4萬,核心框架的star數(shù)超過1.1萬。天元則未披露開源社區(qū)用戶數(shù)。
在領規(guī)科技CEO安康看來,國內(nèi)外深度學習框架每家各有不同,主要還是看開發(fā)者的產(chǎn)品和業(yè)務屬性,最終通過調(diào)整開源社區(qū)的模板參數(shù)實現(xiàn)應用。
一位在中小型智能硬件類企業(yè)工作的王婷(化名)告訴記者,目前公司正在使用Caffe框架。不過,未來可能會考慮使用華為MindSpore,因為公司項目正在使用海思芯片做研發(fā)。
盡管有開發(fā)者反映,因國內(nèi)深度學習框架發(fā)展時間較短,可能出現(xiàn)部分功能不支持、開發(fā)者基數(shù)不足導致社區(qū)無法馬上解決所需解決問題等情況,但不可否認,正有一群開發(fā)者們向國產(chǎn)深度學習框架靠攏。
選ARM低功耗
2020年世界人工智能大會上,曠視介紹了其深度學習框架天元MegEngine的Beta版本,天元重點增加了模型量化與支持ARM處理器兩個功能。
人工智能深度學習離不開海量數(shù)據(jù)和算力,大模型在帶來精度提升的同時,也對計算資源消耗提出更多要求。這導致它們無法部署在很多非云端的計算設備上(比如智能手機),因此有必要通過模型量化。這些輕量化模型,使它們能夠滿足小型計算平臺的要求。目前,Tensorflow、PyTorch、飛槳等框架均實現(xiàn)了量化功能。MegEngine自然不能落后。
“由32位浮點轉(zhuǎn)至int8推理,可實現(xiàn)3倍左右的推理加速,減小模型75%的尺寸,減少存儲空間、內(nèi)存耗用和設備功耗?!睍缫曆芯吭篈I系統(tǒng)高級技術(shù)總監(jiān)徐欣然介紹。
端側(cè)學習是深度學習框架的新趨勢?!岸藗?cè)一般不會進行訓練,只會推理?!鄙虾S嬎銠C軟件技術(shù)開發(fā)中心人工智能技術(shù)研究應用與測評團隊負責人陳敏剛告訴記者,在設備端推理,沒有網(wǎng)絡時延,不需要海量服務器和帶寬資源,也不需要將數(shù)據(jù)上傳云端,保護了用戶隱私。
天元Beta版本添加了對廣泛用于手機和終端電子設備的ARM平臺處理器的支持,并推出了推理優(yōu)化工具教程,還與面向AIoT的框架小米Mace和嵌入式邊緣計算框架Tengine展開了合作。
百度深度學習技術(shù)平臺部高級總監(jiān)馬艷軍告訴記者,目前包括英特爾、英偉達、華為、ARM等諸多芯片廠商都支持飛槳,并開展合作。這意味著ARM平臺處理下,低能耗的可能。
不過,值得一提的是,功耗似乎是AI在邊緣側(cè)、云端的枷鎖,大大限制了算力。據(jù)記者了解,目前數(shù)據(jù)中心的一個機柜功耗限制在6000瓦-8000瓦,而一臺性能強勁的GPU服務器也要四五千瓦。
下一站:量子
如果說兼容其他開源框架訓練模型是飛槳一大亮點,那么,融合量子計算則是飛槳的另一張牌。今年5月20日,“量槳”首度亮相。
“AI技術(shù)可以促進量子計算的研發(fā),甚至突破量子計算核心瓶頸問題。另一方面,量子系統(tǒng)的并行模式和信息處理優(yōu)勢,也可能使量子計算機在一些特定AI任務上超越經(jīng)典計算機,進而促進AI技術(shù)的突破發(fā)展?!瘪R艷軍說。
今年3月,TensorFlow與谷歌合作TensorFlow Quantum(量子),為了在更深層次模擬自然,擴展機器從量子數(shù)據(jù)中學習的能力。
盡管從去年下半年起,量子優(yōu)越性的新聞不斷出現(xiàn),只是目前量子計算處于實驗室階段。超低溫(接近絕對0度)、黑暗環(huán)境的設定,令量子計算離商用化之路仍有一段距離。
不妨看作這是百度的一次布局。2018年3月,百度研究院量子計算研究所成立,著重研究量子人工智能、量子算法和量子架構(gòu)。
? ? ? ? 責任編輯:tzh
評論
查看更多