0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

在線研討會(huì) | 大模型時(shí)代語(yǔ)音 AI 模型的訓(xùn)練、優(yōu)化與應(yīng)用

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來(lái)源:未知 ? 2023-12-15 15:50 ? 次閱讀

AI 大模型在語(yǔ)音識(shí)別、自然語(yǔ)言處理等領(lǐng)域已經(jīng)取得了令人矚目的成就。語(yǔ)音 AI(Speech AI)技術(shù)已經(jīng)廣泛應(yīng)用在數(shù)字人、實(shí)時(shí)翻譯、語(yǔ)音搜索、客戶服務(wù)應(yīng)答等多個(gè)業(yè)務(wù)場(chǎng)景, NVIDIA 也在不斷通過(guò)業(yè)界領(lǐng)先的技術(shù),幫助企業(yè)能夠快速部署定制化 AI 智能語(yǔ)音端到端流程。

2023 年 12 月 19 日和 21 日晚間,來(lái)自 NVIDIA 和 Kaldi 項(xiàng)目的技術(shù)專家將做客 Datafun 社區(qū)直播間,為您介紹如何有針對(duì)性的在語(yǔ)音模型的訓(xùn)練、推理、部署全流程中進(jìn)行加速和優(yōu)化,內(nèi)容精彩紛呈干貨滿滿,不要錯(cuò)過(guò)!

2023 年 12 月 19 日 19:30 – 21:10

//

在 NeMo 框架下快速進(jìn)行包含 ASR、NLP和TTS的全流程語(yǔ)音任務(wù)訓(xùn)練

NVIDIA NeMo 是一個(gè)針對(duì) ASR、NLP、TTS 的訓(xùn)練工具框架。它內(nèi)部集成業(yè)界最新的模型結(jié)構(gòu),高效的 LLM 模型并行訓(xùn)練方法,方便開(kāi)發(fā)者快速開(kāi)發(fā)對(duì)話式 AI 應(yīng)用。通過(guò)本次演講,您將收獲以下內(nèi)容:

  • 了解 NeMo 中新增加的模型結(jié)構(gòu)。

  • 了解 NeMo Megatron 對(duì) LLM 的訓(xùn)練優(yōu)化。

  • 了解 NeMo 中的 TTS 模型支持。

演講嘉賓:

齊家興,NVIDIA 解決方案架構(gòu)師

德國(guó)亞琛工業(yè)大學(xué)博士,目前于 NVIDIA 企業(yè)解決方案部門擔(dān)任高級(jí)架構(gòu)師,多年來(lái)從事自然語(yǔ)言處理和語(yǔ)音識(shí)別等方向研究,助力多家企業(yè)基于 GPU 平臺(tái)實(shí)現(xiàn)高效易用的訓(xùn)練和推理平臺(tái)。他是 NVIDIA NeMo,Riva 語(yǔ)音識(shí)別訓(xùn)練推理平臺(tái)的中文模型開(kāi)發(fā)者之一。

//

利用 NVIDIA Riva 快速部署企業(yè)級(jí)中文語(yǔ)音 AI 服務(wù)并進(jìn)行優(yōu)化加速

NVIDIA Riva 提供基于 GPU 的高效流式語(yǔ)音識(shí)別和語(yǔ)音合成的部署解決方案。通過(guò)本次演講您將收獲以下內(nèi)容:

  • 了解 Riva 中文語(yǔ)音識(shí)別新增功能。

  • 了解 Riva 構(gòu)建中文語(yǔ)音合成流程。

  • 如何使用 Riva quick start 快速搭建語(yǔ)音服務(wù)。

演講嘉賓:

丁文,NVIDIA 解決方案架構(gòu)師

畢業(yè)于上海交通大學(xué),導(dǎo)師為俞凱教授。畢業(yè)后曾就職于頭部互聯(lián)網(wǎng)公司語(yǔ)音交互部門,主要負(fù)責(zé)流式 ASR 的迭代與優(yōu)化、粵語(yǔ) ASR 等。目前就職于 NVIDIA,負(fù)責(zé) Riva 中文 ASR 模型迭代,中文 ASR 模型 GPU 部署方案落地與優(yōu)化等。

2023 年 12 月 21 日 19:30 – 21:10

//

利用 NVIDIA 最新推出的 TensorRT-LLM,以及 Triton 推理服務(wù)器優(yōu)化、部署和高效運(yùn)行語(yǔ)音模型

  • GPU 優(yōu)化智能語(yǔ)音任務(wù)進(jìn)展概覽。

  • 基于 TensorRT-LLM 加速 ASR 大模型。

  • 基于 TensorRT + Triton 的流式 TTS 優(yōu)化方案。

演講嘉賓:

劉川,NVIDIA 解決方案架構(gòu)經(jīng)理

畢業(yè)于南京大學(xué),目前整體負(fù)責(zé)云計(jì)算行業(yè) GPU 解決方案的構(gòu)建。NVIDIA 中文語(yǔ)音解決方案主要負(fù)責(zé)人,對(duì)基于 GPU 的語(yǔ)音識(shí)別和語(yǔ)音合成在云上的部署有豐富經(jīng)驗(yàn)。

//

新一代 Kaldi 團(tuán)隊(duì)的最新進(jìn)展

新一代 Kaldi 項(xiàng)目介紹、新一代 Kaldi 項(xiàng)目最新進(jìn)展,以及新一代 Kaldi 中基于 GPU 的語(yǔ)音識(shí)別實(shí)踐。

演講嘉賓:

楊笑宇

小米公司新一代 Kaldi 項(xiàng)目(Daniel Povey 團(tuán)隊(duì))核心開(kāi)發(fā)成員。碩士畢業(yè)于劍橋大學(xué),導(dǎo)師為 Phil Woodland 教授。主要研究方向?yàn)檎Z(yǔ)音識(shí)別。

參與有獎(jiǎng)!

所有注冊(cè)并參加本次線上研討會(huì)的開(kāi)發(fā)者,均有機(jī)會(huì)在直播期間贏取 NVIDIA 限量版積木。

wKgZomV8BlaAYDSeAAAz8H9OPCQ248.png

點(diǎn)擊“閱讀原文”識(shí)別上方二維碼,訪問(wèn) Datafun 社區(qū)直播間報(bào)名參與活動(dòng)注冊(cè),并參加本次線上研討會(huì)。






GTC 2024 將于 2024 年 3 月 18 至 21 日在美國(guó)加州圣何塞會(huì)議中心舉行,線上大會(huì)也將同期開(kāi)放。掃描下方海報(bào)二維碼,立即注冊(cè) GTC 大會(huì)。


原文標(biāo)題:在線研討會(huì) | 大模型時(shí)代語(yǔ)音 AI 模型的訓(xùn)練、優(yōu)化與應(yīng)用

文章出處:【微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3776

    瀏覽量

    91114

原文標(biāo)題:在線研討會(huì) | 大模型時(shí)代語(yǔ)音 AI 模型的訓(xùn)練、優(yōu)化與應(yīng)用

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    GPU是如何訓(xùn)練AI模型

    AI模型訓(xùn)練過(guò)程中,大量的計(jì)算工作集中在矩陣乘法、向量加法和激活函數(shù)等運(yùn)算上。這些運(yùn)算正是GPU所擅長(zhǎng)的。接下來(lái),AI部落小編帶您了解GPU是如何
    的頭像 發(fā)表于 12-19 17:54 ?126次閱讀

    Imagination 系列研討會(huì) |中國(guó)生成式 AI 的發(fā)展

    近期,Imagination將陸續(xù)推出全新系列研討會(huì),涵蓋邊緣AI如何推動(dòng)工業(yè)物聯(lián)網(wǎng)的發(fā)展,生成式AI,智能汽車未來(lái)發(fā)展趨勢(shì)等等多個(gè)熱門話題。本期研討會(huì)中,Imagination中國(guó)區(qū)
    的頭像 發(fā)表于 12-09 16:57 ?295次閱讀
    Imagination 系列<b class='flag-5'>研討會(huì)</b> |中國(guó)生成式 <b class='flag-5'>AI</b> 的發(fā)展

    AI模型托管原理分析

    AI模型托管是指將訓(xùn)練好的AI模型部署在云端或邊緣服務(wù)器上,由第三方平臺(tái)提供模型運(yùn)行、管理和
    的頭像 發(fā)表于 11-07 09:33 ?171次閱讀

    為什么ai模型訓(xùn)練要用gpu

    GPU憑借其強(qiáng)大的并行處理能力和高效的內(nèi)存系統(tǒng),已成為AI模型訓(xùn)練不可或缺的重要工具。
    的頭像 發(fā)表于 10-24 09:39 ?293次閱讀

    AI模型訓(xùn)練數(shù)據(jù)來(lái)源分析

    AI模型訓(xùn)練數(shù)據(jù)來(lái)源廣泛且多元化,這些數(shù)據(jù)源對(duì)于構(gòu)建和優(yōu)化AI模型至關(guān)重要。以下是對(duì)
    的頭像 發(fā)表于 10-23 15:32 ?632次閱讀

    如何訓(xùn)練自己的AI模型

    訓(xùn)練自己的AI模型是一個(gè)復(fù)雜且耗時(shí)的過(guò)程,涉及多個(gè)關(guān)鍵步驟。以下是一個(gè)詳細(xì)的訓(xùn)練流程: 一、明確需求和目標(biāo) 首先,需要明確自己的需求和目標(biāo)。不同的任務(wù)和應(yīng)用領(lǐng)域需要不同類型的
    的頭像 發(fā)表于 10-23 15:07 ?1519次閱讀

    AI模型的性能優(yōu)化方法

    AI模型的性能優(yōu)化是一個(gè)復(fù)雜而關(guān)鍵的任務(wù),涉及多個(gè)方面和策略。以下是一些主要的性能優(yōu)化方法: 一、模型壓縮與
    的頭像 發(fā)表于 10-23 15:01 ?696次閱讀

    ai模型訓(xùn)練需要什么配置

    AI模型訓(xùn)練是一個(gè)復(fù)雜且資源密集的過(guò)程,它依賴于高性能的硬件配置來(lái)確保訓(xùn)練的效率和效果。 一、處理器(CPU) CPU是計(jì)算機(jī)的核心部件,負(fù)責(zé)處理各種計(jì)算任務(wù)。在
    的頭像 發(fā)表于 10-17 18:10 ?1300次閱讀

    模型時(shí)代的算力需求

    現(xiàn)在AI已進(jìn)入大模型時(shí)代,各企業(yè)都爭(zhēng)相部署大模型,但如何保證大模型的算力,以及相關(guān)的穩(wěn)定性和性能,是一個(gè)極為重要的問(wèn)題,帶著這個(gè)極為重要的問(wèn)
    發(fā)表于 08-20 09:04

    ai模型訓(xùn)練方法有哪些?

    AI模型訓(xùn)練方法是一個(gè)復(fù)雜且不斷發(fā)展的領(lǐng)域。以下是ai模型訓(xùn)練方法: 數(shù)據(jù)預(yù)處理和增強(qiáng) 數(shù)據(jù)
    的頭像 發(fā)表于 07-16 10:11 ?1505次閱讀

    ai模型ai框架的關(guān)系是什么

    的數(shù)據(jù)和計(jì)算資源來(lái)進(jìn)行訓(xùn)練。AI模型的主要特點(diǎn)包括: 1.1 參數(shù)數(shù)量大:AI模型的參數(shù)數(shù)量通常在數(shù)百萬(wàn)到數(shù)十億之間,這使得它們能夠捕捉
    的頭像 發(fā)表于 07-16 10:07 ?4w次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過(guò)程詳解

    深度學(xué)習(xí)模型訓(xùn)練是一個(gè)復(fù)雜且關(guān)鍵的過(guò)程,它涉及大量的數(shù)據(jù)、計(jì)算資源和精心設(shè)計(jì)的算法。訓(xùn)練一個(gè)深度學(xué)習(xí)模型,本質(zhì)上是通過(guò)優(yōu)化算法調(diào)整
    的頭像 發(fā)表于 07-01 16:13 ?1279次閱讀

    聆思CSK6視覺(jué)語(yǔ)音模型AI開(kāi)發(fā)板入門資源合集(硬件資料、大模型語(yǔ)音/多模態(tài)交互/英語(yǔ)評(píng)測(cè)SDK合集)

    模型語(yǔ)音問(wèn)答、拍照識(shí)圖、大模型繪圖等豐富供能示例,支持語(yǔ)音喚醒、多輪語(yǔ)音交互。 2智能對(duì)話除了大模型
    發(fā)表于 06-18 17:33

    芯原AI專題技術(shù)研討會(huì)圓桌:大模型如何賦能終端設(shè)備?

    日前上海舉行的2024年“芯原AI專題技術(shù)研討會(huì)”上,一場(chǎng)AI既前沿又熱門的精彩的圓桌論壇,讓AI業(yè)者廣泛關(guān)注。由芯原創(chuàng)始人、董事長(zhǎng)兼總裁戴偉民再次親自主持圓桌,特別邀請(qǐng)到南京藍(lán)洋智能
    的頭像 發(fā)表于 06-18 14:25 ?1120次閱讀
    芯原<b class='flag-5'>AI</b>專題技術(shù)<b class='flag-5'>研討會(huì)</b>圓桌:大<b class='flag-5'>模型</b>如何賦能終端設(shè)備?

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的預(yù)訓(xùn)練

    具有以下三個(gè)非常顯著的特點(diǎn),一個(gè)就是模型參數(shù)規(guī)模更大,訓(xùn)練數(shù)據(jù)更多。當(dāng)然,對(duì)計(jì)算資源的要求也會(huì)更高。 構(gòu)建強(qiáng)大的語(yǔ)言模型時(shí),模型的選型至關(guān)
    發(fā)表于 05-07 17:10