筆者在最近的研究中發(fā)現(xiàn)了一篇非常好的有關(guān)對(duì)話系統(tǒng)的論文,《A Survey on Dialogue Systems:Recent Advances and New Frontiers》,論文來(lái)自于京東數(shù)據(jù)團(tuán)隊(duì),論文引用了124篇論文,是一篇綜合全面的介紹對(duì)話系統(tǒng)的文章,可謂是誠(chéng)意滿滿,今天我們將其重點(diǎn)進(jìn)行解讀,以饗讀者。
前言
擁有一個(gè)虛擬助理或一個(gè)擁有足夠智能的聊天伙伴系統(tǒng)似乎是虛幻的,而且可能只在科幻電影中存在很長(zhǎng)一段時(shí)間。近年來(lái),人機(jī)對(duì)話因其潛在的潛力和誘人的商業(yè)價(jià)值而受到越來(lái)越多研究者的關(guān)注。
隨著大數(shù)據(jù)和深度學(xué)習(xí)技術(shù)的發(fā)展,創(chuàng)建一個(gè)自動(dòng)的人機(jī)對(duì)話系統(tǒng)作為我們的私人助理或聊天伙伴,將不再是一個(gè)幻想。
當(dāng)前,對(duì)話系統(tǒng)在各個(gè)領(lǐng)域越來(lái)越引起人們的重視,深度學(xué)習(xí)技術(shù)的不斷進(jìn)步極大地推動(dòng)了對(duì)話系統(tǒng)的發(fā)展。對(duì)于對(duì)話系統(tǒng),深度學(xué)習(xí)技術(shù)可以利用大量的數(shù)據(jù)來(lái)學(xué)習(xí)特征表示和回復(fù)生成策略,這其中僅需要少量的手工操作。
現(xiàn)如今,我們可以很容易地訪問(wèn)網(wǎng)絡(luò)上對(duì)話的“大數(shù)據(jù)”,我們也許能夠?qū)W習(xí)如何回復(fù),以及如何回復(fù)幾乎任何的輸入,這將極大地允許我們?cè)谌祟惡陀?jì)算機(jī)之間建立數(shù)據(jù)驅(qū)動(dòng)的、開放的對(duì)話系統(tǒng)。
另一方面,深度學(xué)習(xí)技術(shù)已經(jīng)被證明是有效的,可以在大數(shù)據(jù)中捕獲復(fù)雜的模式,并擁有大量的研究領(lǐng)域,如計(jì)算機(jī)視覺、自然語(yǔ)言處理和推薦系統(tǒng)等。在本文中,作者從不同的角度對(duì)這些最近的關(guān)于對(duì)話系統(tǒng)的進(jìn)展進(jìn)行概述,并討論了一些可能的研究方向。
具體來(lái)說(shuō),對(duì)話系統(tǒng)大致可分為兩種:
(1)任務(wù)導(dǎo)向型(task-oriented)對(duì)話系統(tǒng)和
(2)非任務(wù)導(dǎo)向型(non-task-oriented)對(duì)話系統(tǒng)(也稱為聊天機(jī)器人)。
面向任務(wù)的系統(tǒng)旨在幫助用戶完成實(shí)際具體的任務(wù),例如幫助用戶找尋商品,預(yù)訂酒店餐廳等。
面向任務(wù)的系統(tǒng)的廣泛應(yīng)用的方法是將對(duì)話響應(yīng)視為一條管道(pipeline),如下圖所示:
系統(tǒng)首先理解人類所傳達(dá)的信息,將其作為一種內(nèi)部狀態(tài),然后根據(jù)對(duì)話狀態(tài)的策略采取一系列相應(yīng)的行為,最后將動(dòng)作轉(zhuǎn)化為自然語(yǔ)言的表現(xiàn)形式。
雖然語(yǔ)言理解是通過(guò)統(tǒng)計(jì)模型來(lái)處理的,但是大多數(shù)已經(jīng)部署的對(duì)話系統(tǒng)仍然使用手工的特性或手工制定的規(guī)則,用于狀態(tài)和動(dòng)作空間表示、意圖檢測(cè)和插槽填充。
非任務(wù)導(dǎo)向的對(duì)話系統(tǒng)與人類交互,提供合理的回復(fù)和娛樂消遣功能,通常情況下主要集中在開放的領(lǐng)域與人交談。雖然非任務(wù)導(dǎo)向的系統(tǒng)似乎在進(jìn)行聊天,但是它在許多實(shí)際應(yīng)用程序中都發(fā)揮了作用。
數(shù)據(jù)顯示,在網(wǎng)上購(gòu)物場(chǎng)景中,近80%的話語(yǔ)是聊天信息,處理這些問(wèn)題的方式與用戶體驗(yàn)密切相關(guān)。
一般來(lái)說(shuō),對(duì)于非任務(wù)導(dǎo)向型對(duì)話系統(tǒng),目前用的主要是兩種主要方法:
(1)生成方法,例如序列到序列模型(seq2seq),在對(duì)話過(guò)程中產(chǎn)生合適的回復(fù),生成型聊天機(jī)器人目前是研究界的一個(gè)熱點(diǎn),和檢索型聊天機(jī)器人不同的是,它可以生成一種全新的回復(fù),因此相對(duì)更為靈活,但它也有自身的缺點(diǎn),比如有時(shí)候會(huì)出現(xiàn)語(yǔ)法錯(cuò)誤,或者生成一些沒有意義的回復(fù);
(2)基于檢索的方法,從事先定義好的索引中進(jìn)行搜索,學(xué)習(xí)從當(dāng)前對(duì)話中選擇回復(fù)。檢索型方法的缺點(diǎn)在于它過(guò)于依賴數(shù)據(jù)質(zhì)量,如果選用的數(shù)據(jù)質(zhì)量欠佳,那就很有可能前功盡棄。
近年來(lái),大數(shù)據(jù)和深度學(xué)習(xí)技術(shù)的迅猛發(fā)展,極大地促進(jìn)了面向任務(wù)和面向非導(dǎo)向的對(duì)話系統(tǒng)的發(fā)展。
在本篇論文中,作者的目標(biāo)是(1)對(duì)對(duì)話系統(tǒng)進(jìn)行概述,特別是最近的深度學(xué)習(xí)的進(jìn)展;(2)討論可能的研究方向。
任務(wù)導(dǎo)向型系統(tǒng)
面向任務(wù)的對(duì)話系統(tǒng)是對(duì)話系統(tǒng)的一個(gè)重要分支。在這部分中,作者總結(jié)了面向任務(wù)的對(duì)話系統(tǒng)的管道方法和端到端方法。
管道(Pipeline)方法
任務(wù)導(dǎo)向型對(duì)話系統(tǒng)的典型結(jié)構(gòu)在之前的圖中已經(jīng)展示,它包括四個(gè)關(guān)鍵組成部分:
1)自然語(yǔ)言理解(Natural Language Understanding,NLU):它將用戶輸入解析為預(yù)定義的語(yǔ)義槽。如果有一個(gè)話語(yǔ),自然語(yǔ)言理解將其映射為語(yǔ)義槽。插槽是根據(jù)不同的場(chǎng)景預(yù)先定義的。
上圖展示了一個(gè)自然語(yǔ)言表示的示例,其中“New York”是指定為slot值的位置,并且分別指定了域和意圖。典型的,有兩種類型的表示。一個(gè)是話語(yǔ)層次類別,如用戶的意圖和話語(yǔ)類別。另一個(gè)是字級(jí)信息提取,如命名實(shí)體識(shí)別和槽填充。對(duì)話意圖檢測(cè)是為了檢測(cè)用戶的意圖。它將話語(yǔ)劃分為一個(gè)預(yù)先定義的意圖。
2)對(duì)話狀態(tài)跟蹤(Dialogue State Tracker,DST)。對(duì)話狀態(tài)跟蹤是確保對(duì)話系統(tǒng)健壯性的核心組件。它在對(duì)話的每一輪次對(duì)用戶的目標(biāo)進(jìn)行預(yù)估,管理每個(gè)回合的輸入和對(duì)話歷史,輸出當(dāng)前對(duì)話狀態(tài)。這種典型的狀態(tài)結(jié)構(gòu)通常稱為槽填充或語(yǔ)義框架。傳統(tǒng)的方法已經(jīng)在大多數(shù)商業(yè)實(shí)現(xiàn)中得到了廣泛的應(yīng)用,通常采用手工規(guī)則來(lái)選擇最有可能的輸出結(jié)果。然而,這些基于規(guī)則的系統(tǒng)容易出現(xiàn)頻繁的錯(cuò)誤,因?yàn)樽羁赡艿慕Y(jié)果并不總是理想的。
最近深度學(xué)習(xí)采用的方法是使用一個(gè)滑動(dòng)窗口輸出任意數(shù)量的可能值的概率分布序列。雖然它在一個(gè)領(lǐng)域受過(guò)訓(xùn)練,但它可以很容易地轉(zhuǎn)移到新的領(lǐng)域。此處運(yùn)用較多的模型是,multi-domain RNN dialog state tracking models和Neural Belief Tracker (NBT) 。
3)對(duì)話策略學(xué)習(xí)(Dialogue policy learning)。根據(jù)狀態(tài)跟蹤器的狀態(tài)表示,策略學(xué)習(xí)是生成下一個(gè)可用的系統(tǒng)操作。無(wú)論是監(jiān)督學(xué)習(xí)還是強(qiáng)化學(xué)習(xí)都可以用來(lái)優(yōu)化政策學(xué)習(xí)。監(jiān)督學(xué)習(xí)是針對(duì)規(guī)則產(chǎn)生的行為進(jìn)行的,在在線購(gòu)物場(chǎng)景中,如果對(duì)話狀態(tài)是“推薦”,那么觸發(fā)“推薦”操作,系統(tǒng)將從產(chǎn)品數(shù)據(jù)庫(kù)中檢索產(chǎn)品。強(qiáng)化學(xué)習(xí)方法的引入可以對(duì)對(duì)話策略進(jìn)行進(jìn)一步的訓(xùn)練,以引導(dǎo)系統(tǒng)制定最終的策略。在實(shí)際實(shí)驗(yàn)中,強(qiáng)化學(xué)習(xí)方法的效果超過(guò)了基于規(guī)則和監(jiān)督的方法。
4)自然語(yǔ)言生成(Natural Language Generation,NLG)。它將選擇操作進(jìn)行映射并生成回復(fù)。
一個(gè)好的生成器通常依賴于幾個(gè)因素:適當(dāng)性、流暢性、可讀性和變化性。傳統(tǒng)的NLG方法通常是執(zhí)行句子計(jì)劃。它將輸入語(yǔ)義符號(hào)映射到代表話語(yǔ)的中介形式,如樹狀或模板結(jié)構(gòu),然后通過(guò)表面實(shí)現(xiàn)將中間結(jié)構(gòu)轉(zhuǎn)換為最終響應(yīng)。深度學(xué)習(xí)比較成熟的方法是基于LSTM的encoder-decoder形式,將問(wèn)題信息、語(yǔ)義槽值和對(duì)話行為類型結(jié)合起來(lái)生成正確的答案。同時(shí)利用了注意力機(jī)制來(lái)處理對(duì)解碼器當(dāng)前解碼狀態(tài)的關(guān)鍵信息,根據(jù)不同的行為類型生成不同的回復(fù)。
2. 端到端(end-to-end)方法
盡管傳統(tǒng)的面向任務(wù)的對(duì)話系統(tǒng)中有許多特定領(lǐng)域的手工制作,但它們很難適應(yīng)新的領(lǐng)域,近年來(lái),隨著端到端神經(jīng)生成模型的發(fā)展,為面向任務(wù)的對(duì)話系統(tǒng)構(gòu)建了端到端的可訓(xùn)練框架。值得注意的是,當(dāng)我們引入非面向任務(wù)的對(duì)話系統(tǒng)時(shí),將討論關(guān)于神經(jīng)生成模型的更多細(xì)節(jié)。與傳統(tǒng)的管道模型不同,端到端模型使用一個(gè)模塊,并與結(jié)構(gòu)化的外部數(shù)據(jù)庫(kù)交互。
上圖的模型是一種基于網(wǎng)絡(luò)的端到端可訓(xùn)練任務(wù)導(dǎo)向型對(duì)話系統(tǒng),將對(duì)話系統(tǒng)的學(xué)習(xí)作為學(xué)習(xí)從對(duì)話歷史到系統(tǒng)回復(fù)的映射問(wèn)題,并應(yīng)用encoder-decoder模型來(lái)訓(xùn)練。然而,該系統(tǒng)是在監(jiān)督的方式下進(jìn)行訓(xùn)練——不僅需要大量的訓(xùn)練數(shù)據(jù),而且由于缺乏對(duì)訓(xùn)練數(shù)據(jù)對(duì)話控制的進(jìn)一步探索,它也可能無(wú)法找到一個(gè)好的策略。
隨著強(qiáng)化學(xué)習(xí)研究的不斷深入,上圖的模型首先提出了一種端到端強(qiáng)化學(xué)習(xí)的方法,在對(duì)話管理中聯(lián)合訓(xùn)練對(duì)話狀態(tài)跟蹤和對(duì)話策略學(xué)習(xí),從而更有力地對(duì)系統(tǒng)的動(dòng)作進(jìn)行優(yōu)化。
非任務(wù)導(dǎo)向型系統(tǒng)
不同于任務(wù)導(dǎo)向型對(duì)話系統(tǒng),它的目標(biāo)是為用戶完成特定的任務(wù),而非任務(wù)導(dǎo)向的對(duì)話系統(tǒng)(也稱為聊天機(jī)器人)專注于在開放的領(lǐng)域與人交談。一般來(lái)說(shuō),聊天機(jī)器人是通過(guò)生成方法或基于檢索的方法實(shí)現(xiàn)的。
生成模型能夠生成更合適的回復(fù),而這些回復(fù)可能從來(lái)沒有出現(xiàn)在語(yǔ)料庫(kù)中,而基于檢索的模型則具有信息充裕和響應(yīng)流暢的優(yōu)勢(shì)。
1. 神經(jīng)生成模型(Neural Generative Models)
深度學(xué)習(xí)在機(jī)器翻譯中的成功應(yīng)用,即神經(jīng)機(jī)器翻譯,激發(fā)了人們對(duì)神經(jīng)生成對(duì)話研究的熱情。目前神經(jīng)生成模型的熱門研究課題大概有如下幾個(gè)方面。
1.1 Sequence-to-Sequence Models
給定包含個(gè)詞語(yǔ)的輸入序列(message))
和長(zhǎng)度為T的目標(biāo)序列(response)
模型最大化Y在X下的條件概率:
具體來(lái)說(shuō),Seq2Seq模型是在encoder-decoder結(jié)構(gòu)中,下圖是這種結(jié)構(gòu)的示意:
編碼器將X逐字讀入,并通過(guò)遞歸神經(jīng)網(wǎng)絡(luò)(RNN)將其表示為上下文向量c,然后解碼器將c 作為輸入估計(jì)Y 的生成概率。
(1) EncoderEncoder過(guò)程很簡(jiǎn)單,直接使用RNN(一般用LSTM)進(jìn)行語(yǔ)義向量生成:
其中f是非線性函數(shù),例如LSTM,GRU,
是上一隱節(jié)點(diǎn)輸出,是當(dāng)前時(shí)刻的輸入。向量c 通常為RNN中的最后一個(gè)隱節(jié)點(diǎn)(h, Hidden state),或者是多個(gè)隱節(jié)點(diǎn)的加權(quán)和。?
(2) Decoder模型的decoder過(guò)程是使用另一個(gè)RNN通過(guò)當(dāng)前隱狀態(tài)來(lái)預(yù)測(cè)當(dāng)前的輸出符號(hào)?,這里的和都與其前一個(gè)隱狀態(tài)和輸出有關(guān),Seq2Seq的目標(biāo)函數(shù)定義為:
2. 對(duì)話上下文(Dialogue Context)
考慮對(duì)話的上下文信息的是構(gòu)建對(duì)話系統(tǒng)的關(guān)鍵所在,它可以使對(duì)話保持連貫和增進(jìn)用戶體驗(yàn)。使用層次化的RNN模型,捕捉個(gè)體語(yǔ)句的意義,然后將其整合為完整的對(duì)話。
同時(shí),分別用字級(jí)別和句子級(jí)別的注意力方法擴(kuò)展層次化的結(jié)構(gòu)。
試驗(yàn)證明:
(1)層次化 RNNs的表現(xiàn)通常優(yōu)于非層次化的RNNs;
(2)在考慮上下文相關(guān)的信息后,神經(jīng)網(wǎng)絡(luò)趨向于產(chǎn)生更長(zhǎng)的、更有意義和多樣性的回復(fù)。
在上圖中,作者通過(guò)代表整個(gè)對(duì)話歷史(包括當(dāng)前的信息),用連續(xù)的表示或嵌入單詞和短語(yǔ)來(lái)解決上下文敏感回復(fù)生成的這一難題。
在上圖的結(jié)構(gòu)中作者引入兩個(gè)層次的Attention機(jī)制,讓模型能夠自動(dòng)的學(xué)到詞語(yǔ)與句子級(jí)別的重要度信息,從而更好的生成新一輪的對(duì)話。
作者在句子級(jí)別的信息中,是反向?qū)W習(xí)的,即認(rèn)為下一句的信息中更能夠包含上一句的信息,所以從總體上來(lái)看,其對(duì)于對(duì)話的學(xué)習(xí)是逆向使用每一輪對(duì)話的內(nèi)容的。
1.3 回復(fù)多樣性(Response Diversity)
在當(dāng)前Seq2Seq對(duì)話系統(tǒng)中,一個(gè)具有挑戰(zhàn)性的問(wèn)題是,它們傾向于產(chǎn)生無(wú)關(guān)緊要的或不明確的、普通的、幾乎沒有意義的回復(fù),而這些回復(fù)常常涉及到一些諸如“I don't know”,“I am OK”這樣的無(wú)意義回復(fù)。
解決這類問(wèn)題的一個(gè)很有效的方法是找到并設(shè)置一個(gè)更好的目標(biāo)函數(shù)。除此之外,解決此類問(wèn)題的一個(gè)方法是增加模型的復(fù)雜度。下圖這篇論文《Building End-To-End Dialogue SystemsUsing Generative Hierarchical Neural Network Models》使用了 latent variable 來(lái)解決無(wú)意義回復(fù)這個(gè)問(wèn)題。
1.4 主題和個(gè)性化(Topic and Personality)明確對(duì)話的內(nèi)在屬性是提高對(duì)話多樣性和保證一致性的另一種方法。在不同的屬性中,主題和個(gè)性被廣泛地進(jìn)行研究探討。
在下圖的模型中,作者注意到人們經(jīng)常把他們的對(duì)話與主題相關(guān)的概念聯(lián)系起來(lái),并根據(jù)這些概念做出他們的回復(fù)。他們使用Twitter LDA模型來(lái)獲取輸入的主題,將主題信息和輸入表示輸入到一個(gè)聯(lián)合注意模塊中,并生成與主題相關(guān)的響應(yīng)。
下圖的模型提出了一種兩階段的訓(xùn)練方法,使用大規(guī)模數(shù)據(jù)對(duì)模型進(jìn)行初始化,然后對(duì)模型進(jìn)行微調(diào),生成個(gè)性化響應(yīng)。
1.5 外部知識(shí)庫(kù)(Outside Knowledge Base)
人類對(duì)話與對(duì)話系統(tǒng)之間的一個(gè)重要區(qū)別是它是否與現(xiàn)實(shí)相結(jié)合。結(jié)合外部知識(shí)庫(kù)(KB)是一種很有前途的方法,可以彌補(bǔ)背景知識(shí)之間的差距,即對(duì)話系統(tǒng)和人之間的差距。
記憶網(wǎng)絡(luò)(Memory Network)是一種以知識(shí)庫(kù)處理問(wèn)題的經(jīng)典方法。因此,它非常直接的別用于在對(duì)話生成中。實(shí)際研究表明,所提出的模型能夠通過(guò)參考知識(shí)庫(kù)中的事實(shí)來(lái)生成對(duì)問(wèn)題的自然和正確答案。
上圖是作者提出的完全數(shù)據(jù)驅(qū)動(dòng)的帶有知識(shí)的對(duì)話模型。其中的 World Facts是一個(gè)集合,收集一些經(jīng)過(guò)權(quán)威認(rèn)證過(guò)的句子或者不準(zhǔn)確的句子,作為知識(shí)庫(kù)。
當(dāng)個(gè)定一個(gè)輸入S和歷史,需要在 Fact 集合里面檢索相關(guān)的facts,這里采用的IR引擎進(jìn)行檢索,然后經(jīng)過(guò) Fact Encoder 進(jìn)行 fact injection。
上圖的模型提出了一種全新的、完全由數(shù)據(jù)驅(qū)動(dòng)的、基于知識(shí)的神經(jīng)對(duì)話模型,目的是在沒有槽位的情況下產(chǎn)生更多的內(nèi)容。作者歸納了廣泛使用的SEQ2SEQ方法,通過(guò)對(duì)會(huì)話歷史和外部“事實(shí)”的響應(yīng) 。
1.6 評(píng)價(jià)評(píng)價(jià)生成回復(fù)的質(zhì)量是對(duì)話系統(tǒng)的一個(gè)重要方面。任務(wù)導(dǎo)向型的對(duì)話系統(tǒng)可以基于人工生成的監(jiān)督信號(hào)進(jìn)行評(píng)估,例如任務(wù)完成測(cè)試或用戶滿意度評(píng)分等。然而,由于高回復(fù)的多樣性,自動(dòng)評(píng)估非任務(wù)導(dǎo)向的對(duì)話系統(tǒng)所產(chǎn)生的響應(yīng)的質(zhì)量仍然是一個(gè)懸而未決的問(wèn)題。目前的方法有以下幾種:
1)計(jì)算 BLEU 值,也就是直接計(jì)算 word overlap、ground truth和你生成的回復(fù)。由于一句話可能存在多種回復(fù),因此從某些方面來(lái)看,BLEU 可能不太適用于對(duì)話評(píng)測(cè)。
2)計(jì)算 embedding的距離,這類方法分三種情況:直接相加求平均、先取絕對(duì)值再求平均和貪婪匹配。
3)衡量多樣性,主要取決于 distinct-ngram 的數(shù)量和 entropy 值的大小。4)進(jìn)行圖靈測(cè)試,用 retrieval 的 discriminator 來(lái)評(píng)價(jià)回復(fù)生成。
基于檢索的方法
基于檢索的方法從候選回復(fù)中選擇回復(fù)。檢索方法的關(guān)鍵是消息-回復(fù)匹配,匹配算法必須克服消息和回復(fù)之間的語(yǔ)義鴻溝。
2.1 單輪回復(fù)匹配檢索聊天機(jī)器人的早期研究主要集中在反應(yīng)選擇單輪的談話,只有消息用于選擇一個(gè)合適的回復(fù)。目前比較新的方法如下圖,利用深度卷積神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu)改進(jìn)模型,學(xué)習(xí)消息和響應(yīng)的表示,或直接學(xué)習(xí)兩個(gè)句子的相互作用表示,然后用多層感知器來(lái)計(jì)算匹配的分?jǐn)?shù)。
2.2 多輪回復(fù)匹配
近年來(lái),基于檢索的多輪會(huì)話越來(lái)越受到人們的關(guān)注,在多輪回答選擇中,將當(dāng)前的消息和先前的話語(yǔ)作為輸入。
模型選擇一個(gè)自然的、與整個(gè)上下文相關(guān)的響應(yīng)。重要的是要在之前的話語(yǔ)中找出重要的信息,并恰當(dāng)?shù)啬7略捳Z(yǔ)的關(guān)系,以確保談話的連貫性。
多輪對(duì)話的難點(diǎn)在于不僅要考慮當(dāng)前的問(wèn)題,也要考慮前幾輪的對(duì)話情景。多輪對(duì)話的難點(diǎn)主要有兩點(diǎn):
1.如何明確上下文的關(guān)鍵信息(關(guān)鍵詞,關(guān)鍵短語(yǔ)或關(guān)鍵句);
2.在上下文中如何模擬多輪對(duì)話間的關(guān)系。
現(xiàn)有檢索模型的缺陷:在上下文中容易丟失重要信息,因?yàn)樗鼈兪紫葘⒄麄€(gè)上下文表示為向量,然后將該上下文向量與響應(yīng)sentence向量進(jìn)行匹配。下圖的方法通過(guò)RNN/LSTM的結(jié)構(gòu)將上下文(所有之前的話語(yǔ)和當(dāng)前消息的連接)和候選響應(yīng)分別編碼到上下文向量和回復(fù)向量中,然后根據(jù)這兩個(gè)向量計(jì)算出匹配度分?jǐn)?shù)。
目前關(guān)于檢索模型的閑聊還停留在單輪對(duì)話中,下面這篇論文提出了基于檢索的多輪對(duì)話閑聊。論文提出了一個(gè)基于檢索的多輪閑聊架構(gòu),進(jìn)一步改進(jìn)了話語(yǔ)關(guān)系和上下文信息的利用,通過(guò)將上下文中的語(yǔ)句與卷積神經(jīng)網(wǎng)絡(luò)的不同層級(jí)進(jìn)行匹配,然后通過(guò)一個(gè)遞歸的神經(jīng)網(wǎng)絡(luò)在時(shí)間序列中堆積這些向量,以建立對(duì)話之間的關(guān)系。
混合的方法
將生成和檢索方法結(jié)合起來(lái)能對(duì)系統(tǒng)性能起到顯著的提升作用?;跈z索的系統(tǒng)通常給出精確但是較為生硬的答案,而基于生成的系統(tǒng)則傾向于給出流暢但卻是毫無(wú)意義的回答。
在集成模型中,被抽取的候選對(duì)象和原始消息一起被輸入到基于RNN的回復(fù)生成器中。這種方法結(jié)合了檢索和生成模型的優(yōu)點(diǎn),這在性能上具備很大的優(yōu)勢(shì)。
未來(lái)的發(fā)展
深度學(xué)習(xí)已成為對(duì)話系統(tǒng)的一項(xiàng)基本技術(shù)。研究人員將神經(jīng)網(wǎng)絡(luò)應(yīng)用于傳統(tǒng)任務(wù)導(dǎo)向型對(duì)話系統(tǒng)的不同組成部分,包括自然語(yǔ)言理解、自然語(yǔ)言生成、對(duì)話狀態(tài)跟蹤。近年來(lái),端到端的框架不僅在非面向任務(wù)的聊天對(duì)話系統(tǒng)中流行,而且在面向任務(wù)的對(duì)話系統(tǒng)中逐步流行起來(lái)。
深度學(xué)習(xí)能夠利用大量的數(shù)據(jù),從而模糊了任務(wù)導(dǎo)向型對(duì)話系統(tǒng)和非任務(wù)導(dǎo)向型對(duì)話系統(tǒng)之間的界限。值得注意的是,目前的端到端模型仍然遠(yuǎn)非完美。盡管取得了上述成就,但這些問(wèn)題仍然具有挑戰(zhàn)性。接下來(lái),我們將討論一些可能的研究方向。
快速適應(yīng)。雖然端到端模型越來(lái)越引起研究者的重視,我們?nèi)匀恍枰趯?shí)際工程中依靠傳統(tǒng)的管道(pipeline)方法,特別是在一些新的領(lǐng)域,特定領(lǐng)域?qū)υ挃?shù)據(jù)的收集和對(duì)話系統(tǒng)的構(gòu)建是比較困難的。未來(lái)的趨勢(shì)是對(duì)話模型有能力從與人的交互中主動(dòng)去學(xué)習(xí)。
深度理解?,F(xiàn)階段基于神經(jīng)網(wǎng)絡(luò)的對(duì)話系統(tǒng)極大地依賴于大量標(biāo)注好的數(shù)據(jù),結(jié)構(gòu)化的知識(shí)庫(kù)以及對(duì)話語(yǔ)料數(shù)據(jù)。在某種意義上產(chǎn)生的回復(fù)仍然缺乏多樣性,有時(shí)并沒有太多的意義,因此對(duì)話系統(tǒng)必須能夠更加有效地深度理解語(yǔ)言和真實(shí)世界。
隱私保護(hù)。目前廣泛應(yīng)用的對(duì)話系統(tǒng)服務(wù)于越來(lái)越多的人。很有必要注意到的事實(shí)是我們使用的是同一個(gè)對(duì)話助手。通過(guò)互動(dòng)、理解和推理的學(xué)習(xí)能力,對(duì)話助手可以無(wú)意中隱蔽地存儲(chǔ)一些較為敏感的信息。因此,在構(gòu)建更好的對(duì)話機(jī)制時(shí),保護(hù)用戶的隱私是非常重要的。
-
大數(shù)據(jù)
+關(guān)注
關(guān)注
64文章
8896瀏覽量
137511 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5506瀏覽量
121265 -
對(duì)話系統(tǒng)
+關(guān)注
關(guān)注
0文章
7瀏覽量
2191
原文標(biāo)題:【干貨】一文讀懂智能對(duì)話系統(tǒng),當(dāng)前研究綜述和未來(lái)趨勢(shì)
文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論