新的 AI 技術發(fā)展趨勢有哪些?多模態(tài)學習技術一定是其中之一。
最近,剛剛宣布“自立門戶”的微軟 AI 明星產品小冰改名為“紅棉小冰”。殊不知 2014 年誕生的這一個 AI 對話機器人已經(jīng)在 5 年時間里更新到了第七代了,據(jù)稱能力上正在“無限接近人類”?,F(xiàn)在的小冰,不僅是那個會作詩的機器人了,她還會唱歌作曲、閱讀朗誦、撰寫新聞,甚至去年還辦了一個虛擬 7 位畫家的個人畫展。多模態(tài)識別技術正是小冰越來越像人一樣溝通表達的關鍵之一。
多模態(tài)技術同樣也在視頻網(wǎng)站、電商物流、自動駕駛等領域得到廣泛。像愛奇藝推出的“只看 TA”功能,優(yōu)酷視頻正在使用的視頻幀、人臉幀的圖向量檢索,都離不開多模態(tài)識別技術的支持。而像京東淘寶等電商平臺的“拍照購”、“拍立淘”的搜索技術背后也都是在計算機視覺技術下,使用了圖像、文本和高層語義屬性等多模態(tài)下的信息融合,才實現(xiàn)高精度的“以圖搜圖”功能。百度提出的“多模態(tài)深度語義理解”,則讓 AI 實現(xiàn)從“看清聽清”到“看懂聽懂”的進化。
可以說,人工智能在通向人的智能的道路上,多模態(tài)學習就是一個繞不開的發(fā)展方向。因為人類本身就是一個多模態(tài)學習的典范。
現(xiàn)在,多模態(tài)學習技術正在帶來眾多全新的應用場景。關注 AI 技術和應用發(fā)展趨勢的你,想必也想了解下多模態(tài)學習的來龍去脈,以及在這些新應用場景中的技術現(xiàn)狀與問題。而這些問題也是本文重點探討的內容。
“多模態(tài)學習”,正式認識下
模態(tài)(Modality),雖然不是我們的日常用語,但卻十分容易理解。
我們每一天都會接觸到各種不同來源和形式的信息。正如我們有視覺、聽覺、嗅覺和觸覺等,那么我們接觸的信息就有視頻、圖像、文字、語音、味道、軟硬度等,這每一種信息的形式就可以稱作一種模態(tài)。
模態(tài)的范圍要比我們的感知能力更寬泛。除了視覺、聽覺獲得的模態(tài)信息,我們也可以利用傳感器獲得諸如雷達、紅外線等不同感應數(shù)據(jù)的模態(tài)信息。
此外,模態(tài)的類型定義也可以非常寬泛,比如我們可以把兩種不同的語言當做是兩種模態(tài),把不同結構下采集的數(shù)據(jù),也可以當做兩種模態(tài)。比如,僅僅一個視頻內容數(shù)據(jù),就是一個高維度、多模態(tài)的數(shù)據(jù)信息,其中包含了標題、簡介、評論、字幕等文本信息,也有視頻幀的圖像、聲音,以及連貫動作視頻片段的視覺、聲音信息。
多模態(tài)學習,從上世紀 70 年代就已經(jīng)起步,幾經(jīng)發(fā)展,現(xiàn)在正進入到機器學習特別是深度學習的階段。通常稱為多模態(tài)機器學習(Multi-Modal Machine Learning ,MMML),試圖通過機器學習的方法實現(xiàn)對多源模態(tài)信息進行分析和理解。當前主要熱門的研究方向自然是對圖像、視頻、音頻、語義之間的多模態(tài)學習。
當前,多模態(tài)學習主要研究方向有多模態(tài)表示學習、模態(tài)間映射,多模態(tài)對齊、融合、協(xié)同學習等。
多模態(tài)表示學習,研究如何將多個模態(tài)數(shù)據(jù)所蘊含的語義信息數(shù)值化為實值向量,通俗理解就是對多個模態(tài)的數(shù)據(jù)進行相關性編碼,讓不同模態(tài)建立起映射關系。按多模態(tài)表示共享的方式,主要分為公共表示學習和特異性表示學習,后者由于是分別學習不同模態(tài)的特征,可以應用于諸如零次學習、模態(tài)間映射、跨模態(tài)檢索等任務中。
模態(tài)間映射,研究如何將某一特定模態(tài)數(shù)據(jù)中的信息映射至另一模態(tài)。例如,給定一幅圖像,通過機器學習得到這副圖像的描述,或者給定一段文字,生成一幅匹配的圖像。類似于我們學習中遇到的“看圖說話”和“以題作畫”的問題。模態(tài)間映射早已可以應用于語音合成、圖像視頻描述以及跨模態(tài)檢索等應用中。
此外,多模態(tài)對齊,主要研究如何識別不同模態(tài)之間的部件、元素的對應關系,以促進學習到的多模態(tài)表示更加精確,例如將電影畫面、口型、語音、字幕的自動對齊;多模態(tài)融合,主要致力于不同模態(tài)間的模型與特征的整合,以獲得更全面的特征,提高模型魯棒性,并且保證模型在某些模態(tài)缺失時仍能有效工作;而多模態(tài)協(xié)同學習,主要考慮如何從信息豐富模態(tài)上學習的知識遷移到信息匱乏的模態(tài),使各個模態(tài)的學習互相輔助。典型的方法包括多模態(tài)的零樣本學習、領域自適應等。
近兩年,隨著機器學習的模型的飛速進展,多模態(tài)學習中出現(xiàn)的映射質量問題、對齊的匹配度量以及融合噪聲干擾等問題,都在實現(xiàn)很好的優(yōu)化解決,為多模態(tài)的落地應用做好了準備。
多模態(tài)學習,正在豐富哪些應用場景?
通過以上解釋可以知道,其實很多我們熟知的 AI 技術都可以歸類到模態(tài)學習當中。比如,像機器翻譯,通過輸入的一種 A 語言即時翻譯為另一種 B 語言,其實質就是一種模態(tài)之間的映射轉化。類似的還有唇讀識別和語音翻譯,也就是分別將唇部視覺和語音信息轉換為文本信息。
在圖像識別中,會應用到一種“圖片語義分割”,即嘗試給圖片的不同像素區(qū)域對應到每一種類型標簽,實現(xiàn)視覺和詞匯的對應。這就是多模態(tài)對齊在空間維度的應用。
當然,基于多模態(tài)數(shù)據(jù)的豐富表示以及映射、對齊和融合的應用,可以將目前 AI 的三種主要感知模態(tài)——語音交互、機器視覺、傳感器智能進行多模態(tài)組合,產生全新的應用場景。
在語音交互上,“多模態(tài)深度語義理解”技術正在為其帶來更深度的應用場景。
對于前幾年的智能音箱,我們都有這樣的感觸,那就是語音交互只能完成簡單的搜索,一旦多聊幾句,就發(fā)現(xiàn)機器人要么只有萬能的“套路”公式,要么就“答非所問”。這一問題的根源就是人工智能無法更好的理解對話者的深層涵義,也沒有靈活的應答機制和內容。此外,也更難理解人的語氣、情緒這類情感模態(tài)信息,當然因為沒有視覺感知,更不可能去理解人的表情、動作、姿態(tài)等信息。
多模態(tài)深度語義理解可以極大改善這類語音交互的語義理解難題。比如,其中一個應用場景是智能汽車的數(shù)字座艙,正在從原本單一的車載語音識別,實現(xiàn)融合視覺、語音、車內外場景圖像的多模態(tài)識別的轉變。
在實際的語音交互中,車載智能助手不僅可以實現(xiàn)語音的識別,也可以通過攝像頭識別人的表情神態(tài)、動作,比如識別疲勞駕駛、分心、發(fā)熱等狀況,以進行即時的語音提醒。語音交互也可以更加以人類的自然語言進行交互,而不必要使用生硬的指令型語言。
而在以機器視覺為主的應用中,多模態(tài)學習技術也帶來新的應用可能。
以電商平臺購物為例,用戶的一大痛點就是看到一些“心水”的好物或者同款,但不知道名字,通過拍照識別和檢索,將為用戶提供最便捷的推薦服務。另外,在電商的智能客服,用戶也希望能夠通過簡單對話或者發(fā)送圖片、視頻的方式處理訂單問題。在這些場景中,跨模態(tài)檢索和映射轉化技術就得到了深度應用。
比如,在商品推薦和信息流廣告中,就需要結合海量商品圖像與對應的商品語義屬性,學習圖像語義特征表達,以提高符合用戶需求的商品推薦度。而與智能客服進行的多輪對話中,融入視覺到語言的跨模態(tài)轉換技術,可以自動實現(xiàn)對用戶上傳的圖片或視頻進行自動應答。
在傳感器智能上,多模態(tài)識別技術可以應用到大量的物聯(lián)網(wǎng)設備場景中。通過在大量的智能設備中增加視覺、溫度、濕度和光線傳感器,來實現(xiàn)多模態(tài)的智能交互。比如在智能空調中,加入語音交互、視覺識別指令,結合傳感器判斷屋內溫度和濕度,可以根據(jù)屋內人數(shù)、位置等因素來實現(xiàn)更精準的控溫方案。而現(xiàn)在更多智能大屏應用,也在將機器視覺、語音交互和一些智能傳感器引入到智能硬件中,實現(xiàn)對屋內光線的調節(jié)、音量、觀看者狀態(tài)(離得是否太近,是否有未成年人)等因素的智能識別和調節(jié)。
而近期,華為推出的一款針對辦公場景的智慧屏幕,可以根據(jù)視頻會議中的發(fā)言對象進行視角跟蹤,將攝像頭跟蹤、焦點人物識別和身份識別結合起來。
正如開始列舉的,多模態(tài)學習技術更主要的應用還是集中在語音和視覺的多模態(tài)識別上。在愛奇藝的“只看 TA”的功能中,除了人臉識別要區(qū)分是真人還是卡通人物,還要對人體信息,甚至還有微表情、身體語言等識別,多模態(tài)技術成為視頻場景中不可缺少的技術支撐。而在未來的聊天機器人或者智能助手上,多模態(tài)學習將幫助智能機器人綜合處理圖像、聲音和文字信息,同時可以進行綜合模態(tài),甚至包括情感等特征信息的輸出與表達。
技術尚在中途,未來仍需努力
不過,我們仍然需要指出的是,盡管多模態(tài)學習技術已經(jīng)有諸多的應用場景,但其技術實現(xiàn)仍然有諸多不足,也會有一些場景仍然是“偽多模態(tài)”的技術應用狀態(tài),導致一些場景體驗仍然不能“盡如人意”。
現(xiàn)在的多模態(tài)技術的結合多為“松耦合”狀態(tài),各個模態(tài)可以一起工作,但耦合之下還不夠十分緊密。也就是現(xiàn)在更多實現(xiàn)的是兩種模態(tài)信息的轉化和融合。而一旦多種模態(tài)數(shù)據(jù)增加,耦合也會增多,沖突也就會增加,產生各種噪聲。比如,對于聊天機器人,如何在回復的聲音、文本中增加情感特征,就是一件非常困難的事情。因此,我們遇到的一批智能機器人都很容易是冷冰冰的客服腔調,以致于我們確實不好識別對方是真人還是機器人。
多模態(tài)技術主要還是采用已標注的多模態(tài)數(shù)據(jù)來生成深度學習模型,這導致這些模型在真實場景下的泛化能力受到很大限制?,F(xiàn)有的多模態(tài)技術更多要與知識圖譜結合,融入專家、常識等知識,利用數(shù)據(jù)和知識的聯(lián)合來讓多模態(tài)技術建立其“智能”的作用。
此外,正如一位專家指出的,當前的多模態(tài)技術還是屬于狹隘的單任務學習,整個訓練和測試的過程都是在封閉和靜態(tài)的環(huán)境下進行,這就和真實世界中開放動態(tài)的應用場景存在一定的差異性。這距離人類在真實場景中的泛化的多模態(tài)感知相距甚遠。
未來為提高多模態(tài)的泛化感知能力,可以利用元學習的方式來讓模型自己學會如何認知新的多模態(tài)知識,實現(xiàn)適用于開放動態(tài)場景并具備終生學習能力的多模態(tài)模型。
而在推動 AI 的推理能力上,在多模態(tài)模型訓練的過程中,可以引入自監(jiān)督、自學習的推理性任務,“強迫”多模態(tài)模型進行推理和思考,這也能在一定程度上讓機器去慢慢學會推理。
通過多模態(tài)學習技術實現(xiàn) AI 的推理,看起來難度極大,這一假設還需要未來更多實驗和驗證。
總的來說,多模態(tài)技術已經(jīng)在試圖“復制”人類在日常生活中的各類場景,盡可能把人類的感知信息進行分析處理和整合,并實現(xiàn)更全面綜合的理解,也能結合“數(shù)據(jù)”和“知識”給出相應的回應。但這距離真正的人類級別的智能還有質的差別。
當然,人們對多模態(tài)技術的發(fā)展前景仍然看好,相比于只側重單一模態(tài)的技術,多模態(tài)技術所構建的智能應用場景將更多樣化,也與我們普通人期待的智能生活更近一些。
更何況,多模態(tài)技術仍處在“襁褓狀態(tài)”,我們應該留給它足夠長的成長時間,等待美好發(fā)生。
評論
查看更多