0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Google發(fā)布用于訓(xùn)練通用智能助理的架構(gòu)數(shù)據(jù)集

獨(dú)愛72H ? 來源:十輪網(wǎng) ? 作者:佚名 ? 2019-10-31 17:05 ? 次閱讀

(文章來源:十輪網(wǎng))

為了滿足智能助理需要執(zhí)行越來越多復(fù)雜任務(wù)的需求,Google發(fā)布了最新的架構(gòu)引導(dǎo)對話(Schema-Guided Dialogue,SGD)數(shù)據(jù)集,以擴(kuò)展智能助理模型,使其有能力處理多重領(lǐng)域的任務(wù)。

現(xiàn)在的智能助理可以完成的任務(wù)越來越多,包括預(yù)定餐廳或是截取網(wǎng)絡(luò)消息等,Google提到,像是Google助理這類智能助理集成了眾多領(lǐng)域的服務(wù),每個服務(wù)可能由不同領(lǐng)域的服務(wù)疊加而成。為了適應(yīng)這樣的發(fā)展,讓智能助理能夠支持更多的新服務(wù),而不需要收集額外的數(shù)據(jù)或是重新訓(xùn)練模型,降低維護(hù)成本。因此Google發(fā)布SGD數(shù)據(jù)集,來填補(bǔ)訓(xùn)練智能助理處理復(fù)雜與大規(guī)模任務(wù)所需要的數(shù)據(jù)集空缺。

SGD數(shù)據(jù)集是目前最大的任務(wù)導(dǎo)向?qū)υ捳Z料庫,Google使用綠野仙蹤(Wizard of Oz)方法產(chǎn)生人類與助理的對話,共包含跨17個領(lǐng)域18,000個對話,并附加了不同的注解。這些對話涉及與服務(wù)和API的交互,包括銀行服務(wù)、事件、日歷甚至是天氣等17個領(lǐng)域,而在多數(shù)的領(lǐng)域,SGD數(shù)據(jù)集包含多個不同的API,不少API接口不同但是功能重復(fù),以反應(yīng)實際的狀況。

Google表示,SGD數(shù)據(jù)集是第一個涵蓋這么多領(lǐng)域,會為每個領(lǐng)域都提供多個API的數(shù)據(jù)集,而且為了量化模型對API接口更新或是新API的強(qiáng)健性,評估數(shù)據(jù)集包含了許多在訓(xùn)練數(shù)據(jù)集中,所沒有的新服務(wù)。

用戶使用SGD數(shù)據(jù)集,可以訓(xùn)練智能助理支持網(wǎng)頁的多樣服務(wù),Google提到,要完成這個目的,通常需要一個大型的主要架構(gòu)(Master Schema),羅列所有支持的功能和參數(shù),但實際上,要開發(fā)適合所有使用案例的主架構(gòu)非常困難,而且即便克服了這項障礙,主架構(gòu)也可能會讓新的或是小型服務(wù)的集成變得復(fù)雜,進(jìn)而增加智能助理的維護(hù)成本。

而且不少服務(wù)之間使用相似的概念,像是訂票服務(wù),電影票、機(jī)票和演奏會門票邏輯都相似,但使用主架構(gòu)的方法,就會不方便對這類概念進(jìn)行連接建模,除非以手動的方式定義之間的映射。

Google提出了一個新的架構(gòu)引導(dǎo)方法解決這些問題,這個新方法不需要為智能助理定義一個主架構(gòu),而是為每個服務(wù)或是API,提供功能與相關(guān)屬性列表的自然語言描述,這些描述可以用于學(xué)習(xí)一個架構(gòu)的分布式語義表達(dá),為對話系統(tǒng)提供額外的輸入,并將對話系統(tǒng)以單個統(tǒng)一的模型實例,這個統(tǒng)一模型為不同服務(wù)提供相似概念的表示,并通過架構(gòu)的分布式表達(dá),使得新服務(wù)可以不需要事先有訓(xùn)練數(shù)據(jù)就能運(yùn)行。

Google為此還以架構(gòu)引導(dǎo)方法創(chuàng)建了一個智能助理,在所有服務(wù)和領(lǐng)域使用單一模型,沒有設(shè)置各領(lǐng)域的專門參數(shù),就能處理各式任務(wù),Google開源了用于對話狀態(tài)關(guān)注的模型,可以在新服務(wù)和API沒有訓(xùn)練數(shù)據(jù)的情況下,同時保有與常規(guī)設(shè)置相同的能力。
(責(zé)任編輯:fqj)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6171

    瀏覽量

    105504
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    31028

    瀏覽量

    269371
收藏 人收藏

    評論

    相關(guān)推薦

    《具身智能機(jī)器人系統(tǒng)》第10-13章閱讀心得之具身智能機(jī)器人計算挑戰(zhàn)

    得到詳細(xì)介紹,它創(chuàng)新性地解決了具身智能數(shù)據(jù)瓶頸問題。該系統(tǒng)包含三個核心組件:數(shù)據(jù)采集端點(diǎn)負(fù)責(zé)收集真實環(huán)境數(shù)據(jù),仿真服務(wù)生成合成數(shù)據(jù)擴(kuò)充
    發(fā)表于 01-04 01:15

    RISC-V架構(gòu)及MRS開發(fā)環(huán)境回顧

    是RISC-V被稱為開放指令的主要原因。(4)RISC-V目前的應(yīng)用 沁恒微電子于2020年2月24日發(fā)布了首款基于 RISC-V架構(gòu),自主設(shè)計的RISC-V3A處理器內(nèi)核及 其硬件產(chǎn)品
    發(fā)表于 12-16 23:08

    Google DeepMind發(fā)布Genie 2:打造交互式3D虛擬世界

    的交互式體驗。 據(jù)了解,Genie 2是一個自回歸潛在擴(kuò)散模型,它基于大型視頻數(shù)據(jù)進(jìn)行訓(xùn)練。通過自動編碼器,視頻中的潛在幀被傳遞到大型Transformer動力學(xué)模型中。該模型采用與大語言模型類似的因果掩碼進(jìn)行
    的頭像 發(fā)表于 12-05 14:16 ?506次閱讀

    AI大模型的訓(xùn)練數(shù)據(jù)來源分析

    學(xué)術(shù)機(jī)構(gòu)、政府組織或企業(yè)公開發(fā)布,涵蓋了各種類型的數(shù)據(jù),如圖像、文本、音頻、視頻等。例如: ImageNet :一個廣泛用于圖像識別任務(wù)的大規(guī)模圖像數(shù)據(jù)
    的頭像 發(fā)表于 10-23 15:32 ?724次閱讀

    pycharm怎么訓(xùn)練數(shù)據(jù)

    在本文中,我們將介紹如何在PyCharm中訓(xùn)練數(shù)據(jù)。PyCharm是一款流行的Python集成開發(fā)環(huán)境,提供了許多用于數(shù)據(jù)科學(xué)和機(jī)器學(xué)習(xí)的
    的頭像 發(fā)表于 07-11 10:10 ?657次閱讀

    如何理解機(jī)器學(xué)習(xí)中的訓(xùn)練、驗證和測試

    理解機(jī)器學(xué)習(xí)中的訓(xùn)練、驗證和測試,是掌握機(jī)器學(xué)習(xí)核心概念和流程的重要一步。這三者不僅構(gòu)成了模型學(xué)習(xí)與評估的基礎(chǔ)框架,還直接關(guān)系到模型性能的可靠性和泛化能力。以下是一篇深入探討這三
    的頭像 發(fā)表于 07-10 15:45 ?4272次閱讀

    人臉識別模型訓(xùn)練失敗原因有哪些

    人臉識別模型訓(xùn)練失敗的原因有很多,以下是一些常見的原因及其解決方案: 數(shù)據(jù)質(zhì)量問題 數(shù)據(jù)訓(xùn)練
    的頭像 發(fā)表于 07-04 09:17 ?648次閱讀

    AI訓(xùn)練狂飆,DDR5成PMIC護(hù)航,內(nèi)存技術(shù)持續(xù)助力

    電子發(fā)燒友網(wǎng)報道(文/黃晶晶)AI訓(xùn)練數(shù)據(jù)正高速增長,與之相適應(yīng)的不僅是HBM的迭代升級,還有用于處理這些海量數(shù)據(jù)的服務(wù)器內(nèi)存技術(shù)的不斷發(fā)
    的頭像 發(fā)表于 07-04 09:09 ?3679次閱讀
    AI<b class='flag-5'>訓(xùn)練</b>狂飆,DDR5<b class='flag-5'>集</b>成PMIC護(hù)航,內(nèi)存技術(shù)持續(xù)助力

    PyTorch如何訓(xùn)練自己的數(shù)據(jù)

    PyTorch是一個廣泛使用的深度學(xué)習(xí)框架,它以其靈活性、易用性和強(qiáng)大的動態(tài)圖特性而聞名。在訓(xùn)練深度學(xué)習(xí)模型時,數(shù)據(jù)是不可或缺的組成部分。然而,很多時候,我們可能需要使用自己的數(shù)據(jù)
    的頭像 發(fā)表于 07-02 14:09 ?1784次閱讀

    K折交叉驗證算法與訓(xùn)練

    K折交叉驗證算法與訓(xùn)練
    的頭像 發(fā)表于 05-15 09:26 ?579次閱讀

    進(jìn)一步解讀英偉達(dá) Blackwell 架構(gòu)、NVlink及GB200 超級芯片

    、庫及優(yōu)化的AI模型和應(yīng)用程序,為用戶提供全面的AI計算解決方案。 DGX SuperPOD - 專為人工智能設(shè)計的數(shù)據(jù)中心 NVIDIA 發(fā)布專為訓(xùn)練和推理萬億參數(shù)生成式AI模型而設(shè)
    發(fā)表于 05-13 17:16

    【大語言模型:原理與工程實踐】大語言模型的預(yù)訓(xùn)練

    大語言模型的核心特點(diǎn)在于其龐大的參數(shù)量,這賦予了模型強(qiáng)大的學(xué)習(xí)容量,使其無需依賴微調(diào)即可適應(yīng)各種下游任務(wù),而更傾向于培養(yǎng)通用的處理能力。然而,隨著學(xué)習(xí)容量的增加,對預(yù)訓(xùn)練數(shù)據(jù)的需求也相應(yīng)
    發(fā)表于 05-07 17:10

    上汽通用五菱天輿架構(gòu)覆蓋全尺寸車型發(fā)布

    4 月 7 日,上汽通用五菱公布其新款智能架構(gòu)——天輿架構(gòu)。該架構(gòu)預(yù)計在 4 月 12 日 15 時召開的寶駿悅也家族新品
    的頭像 發(fā)表于 04-07 16:04 ?352次閱讀

    語音數(shù)據(jù)智能駕駛中的關(guān)鍵作用與應(yīng)用

    中的關(guān)鍵作用、應(yīng)用、挑戰(zhàn)以及未來的發(fā)展趨勢。 二、語音數(shù)據(jù)智能駕駛中的關(guān)鍵作用 訓(xùn)練與優(yōu)化:高質(zhì)量的語音數(shù)據(jù)
    的頭像 發(fā)表于 01-31 16:22 ?497次閱讀

    語音數(shù)據(jù)智能駕駛中車內(nèi)語音識別技術(shù)的基石

    的發(fā)展趨勢。 二、語音數(shù)據(jù)智能駕駛中的應(yīng)用 訓(xùn)練與優(yōu)化:高質(zhì)量的語音數(shù)據(jù)
    的頭像 發(fā)表于 01-31 16:07 ?568次閱讀