0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

未來機器人:讀腦繪圖像 看臉認嫌犯 握手辨性格

OaXG_jingzhengl ? 來源:未知 ? 作者:鄧佳佳 ? 2018-03-26 17:07 ? 次閱讀

都說最難讀懂的是人心,這種復雜高等動物互相理解都有難度。然而,科技卻可能輕而易舉地做到了。在我們還沒搞清楚自己腦子想什么,情緒是快樂還是憤怒時,人工智能就準確冷靜不帶感情色彩地指了出來,通過簡單的“讀腦”“握手”“看臉”,就能輕松看透你,簡直是比你自己都更了解你。

讀腦繪圖像

拷貝別人記憶不是夢

多倫多斯卡伯勒大學的神經(jīng)科學家團隊開發(fā)出了一種“讀心術(shù)”方法,通過掃描你的大腦,來展現(xiàn)你腦海中想象的圖像,按照實驗,這種讀心術(shù)方法幾乎萬無一失。完成這項“讀心”任務的是科學家制造出的一種“讀心機器人”,簡單來說就是一種人工智能程序,這種程序通過識別大腦中的電子信號,來復制描繪大腦中的圖形形狀。該團隊一邊讓受試者觀看電腦屏幕上的人臉圖片,一邊用腦電圖系統(tǒng)記錄他們的腦電波,通過機器人學習算法運行腦電波數(shù)據(jù),以數(shù)字方式重現(xiàn)受試者剛剛看到的人臉圖像。

這項技術(shù)依賴于電腦程序“神經(jīng)網(wǎng)絡系統(tǒng)”,也就是由人工智能來模擬大腦工作時的腦電波數(shù)據(jù),然后將其數(shù)字化并呈現(xiàn)出來。理論來說,這種程序不僅可以學習捕捉大腦中看到人臉圖像時所形成的數(shù)據(jù)信號,對于一些演講內(nèi)容、文字數(shù)據(jù)、動態(tài)圖像等都可以進行識別。所以,雖然目前實驗僅完成了對人腦看到的人臉圖像的識別和描繪,未來對于人腦中形成的關(guān)于文字、數(shù)據(jù)、動態(tài)圖像都可以實現(xiàn)復制和重現(xiàn)。

研究人員在培訓這種“讀心機器人”時,首先讓其通過大量的人像數(shù)據(jù)庫掌握人臉的基本形狀和標志特征。當機器人可以識別面部特征之后,再將這些特征與相對應的腦電圖信號相關(guān)聯(lián)。這樣,在受測人員觀察人臉圖像時,機器人就可以根據(jù)他們當時的腦電圖反饋準確描繪出人腦中所反射出的圖像。

實驗參與人、神經(jīng)科學家阿德里安·內(nèi)斯特對于結(jié)果非常興奮,“機器人最終描繪出的可不是簡單的四邊形或是三角形輪廓,而是由細微筆觸構(gòu)成的人臉模擬圖。這樣不僅可以重建人們看到的東西,而且還可以用來表達他們想象出來的,或者記憶中的內(nèi)容?!眱?nèi)斯特說,“這就出現(xiàn)了另外一種價值,執(zhí)法部門可以通過這個方法,從目擊者那里收集到潛在嫌疑人的信息?!?/p>

或許有一天,人們的記憶將呈現(xiàn)另一種可能性,就像英劇《黑鏡》中所展現(xiàn)的那樣,人們可以任意地拷貝或者回放一個人大腦中的記憶。同時,這種技術(shù)的實現(xiàn)也可能在醫(yī)學上提供參考價值,為失語者提供一種表達自己思想的手段。

看臉識情緒

真正的測謊儀要來了

通過看臉色、眉眼高低就可以識別一個人的情緒,一直是區(qū)分機器人是否真“智能”的一個標準,世界各大領(lǐng)域的技術(shù)大咖也都在努力讓人工智能學會“察言觀色”。谷歌的研究者們開發(fā)了一款網(wǎng)頁應用,向人們展示由人工智能創(chuàng)作的小動物繪畫,然后通過攝像頭記錄人們看到繪畫時的反應,準確識別觀眾的喜好之后,網(wǎng)頁就可以更好地“投其所好”繪畫,這也應該是“察言觀色”的最初級體現(xiàn)。

跟谷歌團隊不同的是,麻省理工學院的研究者們正在針對“負面”情緒在探索,因為恐懼、惡心時的表情可能會更夸張,人工智能也就更容易上手。

另外,類似美國知名初創(chuàng)公司Affectiva的諸多企業(yè)都在探索有情感的人工智能,以及讓機器更好地理解人類面部表情和社會行為的技術(shù)。比如說如何讓無人駕駛汽車識別司機情緒,在司機分心時接管駕車任務等。

人工智能理解人類情緒的方法其實和人類一樣,無非就是通過面部表情變化判斷情緒波動。即使人會故意控制面部表情和聲音不產(chǎn)生變化或者展現(xiàn)出與內(nèi)心世界不一樣的表情和聲音,也總會露出一些破綻,只不過可能會很微小或一閃而過,讓人不易察覺。但對于人工智能來說,發(fā)現(xiàn)細微的現(xiàn)象或捕捉稍縱即逝的變化正是他們的長項,他們可以借助高速攝像機和高性能處理器來完成這項工作,從這個方面來說,人工智能對人類情緒的理解可能會比人還優(yōu)秀。

人工智能情緒識別的能力用處極大,在醫(yī)療業(yè)、服務業(yè)甚至審訊領(lǐng)域都會發(fā)揮不小的作用,就像美劇《Lie to me》能透過辨別微表情指認犯罪者一樣,也許會在不久后實現(xiàn)。

握手辨性格

自閉兒童將有新伙伴

機器人的可怕之處不僅在于可以洞察你的大腦,還能夠從一次簡單的握手中,瞬間挖掘到你的性格。據(jù)英國《每日郵報》報道,研究人員正在研發(fā)類人的情感機器人,它們對于觸覺相當敏感,所以僅從簡單的肢體接觸就可以判斷對方的性別、情緒和性格,從而回應以相對的感情安慰。這樣的機器人就不僅僅看起來像人,還擁有和人類相似的社交能力,通過感情慰藉來融入到人類環(huán)境中。

“給機器人賦予情感是唯一可以拉近它們和人類之間情感距離的方法?!卑屠杷_克雷大學的教授阿德里亞娜表示,“我們此后的研究方向就是讓機器人能夠擁有一個‘玻璃心’,敏感到可以感知人類情緒,并學會禮貌、同情或者幽默地回應人類的情緒?!毖芯咳藛T在初期的實驗中已經(jīng)完成了機器人通過握手的簡單肢體接觸就能判斷對方性別的能力,且正確率達到75%。

阿德里亞娜解釋:“我們首先設定了男女不同性別在握手這個動作中的不同表現(xiàn)模式,比如男女在握手時的力度、幅度上和時間都不一樣,外向的人和內(nèi)向的人表現(xiàn)出的握手姿勢和頻率也不一樣,通過給機器人‘灌輸’這些握手模式,讓它們能夠在實際操作中識別對方身份?!?/p>

為了能夠更全面準確地進行模式設定,研究人員對大量男女握手姿勢進行了觀察研究,除了握手力度、擺動幅度、時間長度、放松程度的區(qū)別外,研究人員還發(fā)現(xiàn),男士主動握女士手時普遍習慣手臂更向下伸,推測是因為一般女士都更矮小,造成男士握手的習慣動作。如果這種敏感的感知能力可以推行,那么未來機器人可能扮演的角色將有很多,比如成為自閉癥孩子最好的朋友,或者孤寡老人的貼心“老伴兒”。

此前的一份調(diào)查顯示,5歲至18歲之間的青少年中,有20%表示更愿意與機器人交朋友。而對于有自閉癥的孩子來說,機器人的敏感和貼心也更會成為打動這些孩子并換以真心的特質(zhì)。

相關(guān)知識

人工智能怎么學習

以上所有的人工智能“讀心術(shù)”歸根結(jié)底都還是基于其“深度學習能力”才能達成的。人工智能之所以具備學習能力,是因為它也有類似人類的大腦——人工神經(jīng)網(wǎng)絡(ANN),它的本質(zhì)就在于試圖模仿大腦神經(jīng)元之間的傳遞處理信息的模式。

人工神經(jīng)網(wǎng)絡的創(chuàng)造理念受到生物學的啟發(fā),是生物神經(jīng)網(wǎng)絡的一種模擬和近似,它從結(jié)構(gòu)、實現(xiàn)機理和功能上模擬生物神經(jīng)網(wǎng)絡。一般認為,人工神經(jīng)元網(wǎng)絡是由大量神經(jīng)元通過極其豐富和完善的連接而構(gòu)成的自適應非線性動態(tài)系統(tǒng)。因為生物的學習系統(tǒng)是由相互連接的神經(jīng)元組成的異常復雜的網(wǎng)絡,其中每一個神經(jīng)元單元有一定數(shù)量的實值輸入,并產(chǎn)生單一的實數(shù)值輸出。這種輸入和輸出模式基于數(shù)學統(tǒng)計學類型的學習方法得以優(yōu)化,所以人工神經(jīng)網(wǎng)絡也是數(shù)學統(tǒng)計學方法的一種實際應用。

這種神經(jīng)網(wǎng)絡依靠系統(tǒng)的復雜程度,通過調(diào)整內(nèi)部大量節(jié)點之間相互連接的關(guān)系,達到處理信息的目的,自身也就具備了學習和自適應的能力。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器人
    +關(guān)注

    關(guān)注

    211

    文章

    28575

    瀏覽量

    207743
  • 人工智能
    +關(guān)注

    關(guān)注

    1793

    文章

    47532

    瀏覽量

    239292
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5511

    瀏覽量

    121350

原文標題:未來機器人能有多懂你:讀腦繪圖像 看臉認嫌犯 握手辨性格

文章出處:【微信號:jingzhenglizixun,微信公眾號:機器人博覽】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人的基礎(chǔ)模塊

    具身智能機器人的基礎(chǔ)模塊,這個是本書的第二部分內(nèi)容,主要分為四個部分:機器人計算系統(tǒng),自主機器人的感知系統(tǒng),自主機器人的定位系統(tǒng),自主機器人
    發(fā)表于 01-04 19:22

    《具身智能機器人系統(tǒng)》第10-13章閱讀心得之具身智能機器人計算挑戰(zhàn)

    閱讀《具身智能機器人系統(tǒng)》第10-13章,我對具身智能機器人的工程實踐有了全新認識。第10章從實時性角度剖析了機器人計算加速問題。機器人定位中的SLAM算法需要處理兩個計算密集型任務:
    發(fā)表于 01-04 01:15

    【「具身智能機器人系統(tǒng)」閱讀體驗】+兩本互為支持的書

    之極。 《計算機視覺之PyTorch數(shù)字圖像處理》為《具身智能機器人系統(tǒng)》提供了感知和識別能力,而《具身智能機器人系統(tǒng)》則為《計算機視覺之PyTorch數(shù)字圖像處理》提供了執(zhí)行體。
    發(fā)表于 01-01 15:50

    【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人大模型

    指令和當前機器人靜態(tài)圖像,生成一段預測的未來狀態(tài)視頻。從這些預測視頻中,可以提取機器人的位姿信息,并解碼出控制所需的速度、加速度等關(guān)鍵參數(shù),再傳遞給
    發(fā)表于 12-29 23:04

    【「具身智能機器人系統(tǒng)」閱讀體驗】1.初步理解具身智能

    對人工智能、機器人技術(shù)和計算系統(tǒng)交叉領(lǐng)域感興趣的讀者來說不可或缺的書。這本書深入探討了具身智能這一結(jié)合物理機器人和智能算法的領(lǐng)域,該領(lǐng)域正在塑造自主系統(tǒng)及其應用的未來。 開篇部分探討了具身智能
    發(fā)表于 12-28 21:12

    【「具身智能機器人系統(tǒng)」閱讀體驗】+初品的體驗

    的快速發(fā)展,相關(guān)人才的需求也在不斷增加,通過閱讀該書可以幫助大家系統(tǒng)性地了解和分析當前具身智能機器人系統(tǒng)的發(fā)展現(xiàn)狀和前沿研究,為未來的研究和開發(fā)工作提供指導。此外,本書還可以為研究人員和工程師提供具體
    發(fā)表于 12-20 19:17

    在用機器人未來機器人并行推進的權(quán)重關(guān)系

    在用機器人未來機器人并行推進的權(quán)重關(guān)系
    的頭像 發(fā)表于 08-01 08:14 ?517次閱讀
    在用<b class='flag-5'>機器人</b>與<b class='flag-5'>未來</b><b class='flag-5'>機器人</b>并行推進的權(quán)重關(guān)系

    機器人視覺技術(shù)中常見的圖像分割方法

    機器人視覺技術(shù)中的圖像分割方法是一個廣泛且深入的研究領(lǐng)域。圖像分割是將圖像劃分為多個區(qū)域或?qū)ο蟮倪^程,這些區(qū)域或?qū)ο缶哂心撤N共同的特征,如顏色、紋理、形狀等。在
    的頭像 發(fā)表于 07-09 09:31 ?808次閱讀

    Al大模型機器人

    金航標kinghelm薩科微slkor總經(jīng)理宋仕強介紹說,薩科微Al大模型機器人有哪些的優(yōu)勢?薩科微AI大模型機器人由清華大學畢業(yè)的天才少年N博士和王博士團隊開發(fā),與同行相比具有許多優(yōu)勢:語言
    發(fā)表于 07-05 08:52

    機器人視覺技術(shù)中圖像分割方法有哪些

    機器人視覺技術(shù)是人工智能領(lǐng)域的一個重要分支,它涉及到圖像處理、模式識別、機器學習等多個學科。圖像分割是機器人視覺技術(shù)中的一個重要環(huán)節(jié),它的目
    的頭像 發(fā)表于 07-04 11:34 ?1093次閱讀

    人形機器人未來:從英偉達到特斯拉的機器人革命

    在科技飛速發(fā)展的今天,機器人技術(shù)正逐步從科幻走向現(xiàn)實。近日,英偉達CEO黃仁勛在一次采訪中大膽預測,機器人技術(shù)將在未來2-3年內(nèi)取得重大突破,并預言人形機器人將成為下一個普及的消費品,
    的頭像 發(fā)表于 06-18 14:56 ?579次閱讀

    基于FPGA EtherCAT的六自由度機器人視覺伺服控制設計

    和增強系統(tǒng)處理圖像的實時性,本文提出了一種伊瑟特的六自由度機器人視覺伺服控制系統(tǒng),將攝像頭集成到基于 Zynq的伊瑟特主站上,提高了視覺伺服的實時性.經(jīng)測試,該平臺能夠?qū)σ曈X檢測目標的變化做出及時的反應
    發(fā)表于 05-29 16:17

    其利天下技術(shù)·搭載無刷電機的掃地機器人的前景如何?

    于部分消費者來說,掃地機器人仍然是一筆不小的開支。 4.掃地機器人未來發(fā)展前景 展望未來,搭載無刷電機的掃地機器人有望在多個方面實現(xiàn)突破
    發(fā)表于 05-05 15:03

    富唯智能:打造未來機器人教育新標桿

    隨著科技的飛速發(fā)展,機器人教育正逐漸成為培養(yǎng)未來人才的重要領(lǐng)域。富唯智能,作為業(yè)內(nèi)領(lǐng)先的機器人技術(shù)提供商,近日推出了一款全新的機器人教育實踐平臺系統(tǒng),旨在為學生提供更加豐富、更具挑戰(zhàn)性
    的頭像 發(fā)表于 04-23 16:45 ?391次閱讀

    未來之聲 | 人形機器人說話篇:無聲!

    隨著一個個有關(guān)人形機器人的“核彈式”新聞的出現(xiàn),機器人技術(shù)肉眼可見地快速發(fā)展?;蛟S,與人們預想的“像一樣說話”不同,未來人形機器人說話方式
    的頭像 發(fā)表于 04-13 08:00 ?328次閱讀
    <b class='flag-5'>未來</b>之聲 | 人形<b class='flag-5'>機器人</b>說話篇:無聲!