以下為本次 GTC 大會騰訊演講具體介紹:
騰訊云與智慧產業(yè)事業(yè)群(CSIG)演講
車云一體,加速自動駕駛量產落地
會議代碼:[S52357]
演講時間:3 月 22 日 即可在線觀看
(點播形式)
演講嘉賓:
劉澍泉
騰訊智慧出行副總裁
演講概要:
在軟件定義的汽車的趨勢下,汽車制造商需要包括數(shù)據庫、高精地圖、數(shù)據采集和標記、AI 模型訓練在內的服務,以及連接和安全工具鏈,以實現(xiàn)更高效率的部署。
針對這些行業(yè)需求,騰訊推出了智能汽車云?;谠?、大數(shù)據和人工智能的優(yōu)勢,騰訊應用 NVIDIA GPU 和 SDK,開發(fā)了 TI-One 訓練平臺和計算加速套件 TACO Kit,以加速自動駕駛汽車的 AI 模型訓練和推理。NVIDIA 在渲染和自動駕駛仿真的技術能力也幫助騰訊研發(fā)了數(shù)字孿生環(huán)境和自動駕駛汽車虛擬仿真平臺。騰訊智能汽車云平臺可將數(shù)據提取、轉換、加載周期的工作量降低 80% ,標注成本降低 70% ,模型訓練總擁有成本降低 50% 。騰訊智能汽車云正在幫助博世等領先的自動駕駛系統(tǒng)開發(fā)商,在國內開發(fā)新的自動駕駛研發(fā)平臺。
云端 AI 推理加速:
一種跨平臺和框架透明的方式
會議代碼:[S52332]
演講時間:3 月 22 日 即可在線觀看
(點播形式)
演講嘉賓:
葉帆
騰訊云異構計算專家級工程師
異構研發(fā)負責人
演講概要:
從產品推薦到自動駕駛汽車再到在線聊天機器人,AI 在我們的日常生活中變得越來越普及??紤]到 AI 應用程序的廣泛應用,AI 推理很可能會在云端的不同硬件目標上運行。這種硬件異構性引發(fā)了軟件層面的挑戰(zhàn),尤其是當開發(fā)人員經常發(fā)現(xiàn)自己使用獨立的軟件棧在不同的硬件目標上開發(fā)推理應用程序時。
基于此,騰訊計算加速套件 TACO Infer 旨在讓所有開發(fā)人員,無論其 AI 開發(fā)經驗如何,都可以使用他們選擇的模型、框架和硬件后端來加速深度學習推理。TACO Infer 提供了一個跨平臺的統(tǒng)一優(yōu)化接口,對深度學習框架透明,如 TensorFlow 或 PyTorch。TACO Infer 的可擴展設計,還有助于在針對不同設備時,可集成第三方和社區(qū)開源軟件。
騰訊技術工程事業(yè)群(TEG)演講
騰訊 “混元” 生成式 AI 大模型:
文字生成圖像
會議代碼:[S52337]
演講時間:3 月 22 日 4:00 PM
演講嘉賓:
蘆清林
騰訊高級算法研究員
演講概要:
在全球最權威的跨模態(tài)視頻檢索數(shù)據集排行榜(MSR-VTT、MSVD、LSMDC、DiDeMo、ActivityNet),騰訊“混元”AI 大模型接連拿下第一名,實現(xiàn)了該領域的大滿貫。尤其是在 MSR-VTT 榜單上,“混元”AI 大模型將文本生成視頻的檢索準確率提升至 55% ,領先第二名 1.7% 。
目前,“混元”AI 大模型已廣泛應用于創(chuàng)作、搜索、推薦等騰訊的廣告業(yè)務場景,幫助廣告創(chuàng)作者和商業(yè)伙伴預測視頻內容與消費群體的興趣關聯(lián)度,提升創(chuàng)作效率。2022 年 12 月,騰訊推出了國內首個低成本、可部署的萬億級參數(shù) NLP 模型 HunYuan-NLP 1T?;隍v訊的 Ampere GPU 集群、高速網絡基礎設施和“太極”PTM 平臺,僅用 256 張 Ampere GPU 就能在一天內完成訓練,整體訓練成本僅為之前的 1/8。騰訊目前正致力于 text-to-image 大型模型的開發(fā),并取得了很大進展。本次演講將詳細介紹“混元”text-to-image 大型生成式模型。
GPU 加速大規(guī)模向量索引構建
會議代碼:[SE51475]
演講時間:3 月 22 日 2:30 PM
演講嘉賓:
李晨
騰訊高級工程師
演講概要:
大規(guī)模向量檢索引擎在騰訊諸多業(yè)務中有所應用,在百億級召回場景中提供低延遲、高召回率的在線服務。但隨著索引規(guī)模的增加,向量索引的構建已經成為日常索引的更新瓶頸。
離線向量 IVF 索引構建,在引入 GPU 優(yōu)化之前,索引構建工作依托 Hadoop 平臺進行,引入 NVIDIA GPU 改造后索引構建成本降低 60%。索引構建的優(yōu)化工作主要由兩部分組成:1. IVF KMeans 聚類;2. 百億向量在海量聚類中心上的 FIT 過程。本次演講將介紹如何基于 GPU 構建大規(guī)模向量索引及其優(yōu)化過程。
NVIDIA Ampere 架構的結構化稀疏功能
及其在騰訊微信搜索的應用
會議代碼:[S51299]
演講時間:3 月 22 日 2:00 PM
演講嘉賓:
李運
騰訊高級算法工程師
白鴻驍
NVIDIA GPU 計算專家團隊工程師
演講概要:
NVIDIA Ampere 架構帶來了全新的 2:4 結構化稀疏功能。利用稀疏 Tensor Core,Ampere GPU 可以在硬件層面加速許多深度學習模型推理。
本次演講將介紹新的稀疏功能,以及相對應的通用訓練方法以及利用此特性的推理加速手段。騰訊機器學習平臺部也將帶來他們針對此稀疏功能的新訓練方法,在維持精度的前提下大大加速訓練。借助稀疏功能的推理加速,騰訊在微信搜索的一些相關服務上得到了 1.3-1.8 倍的加速。
騰訊互動娛樂事業(yè)群(IEG)精彩演講
使用光線追蹤技術實現(xiàn)更好的發(fā)絲實時渲染
會議代碼:[S51294]
演講時間:3 月 20 日 3:00 PM
演講嘉賓:
傅錫豪
騰訊軟件工程師
演講概要:
雖然現(xiàn)代 GPU 的算力正在蓬勃發(fā)展,但是基于物理的實時毛發(fā)渲染仍遠未得到解決。曾經基于發(fā)片的毛發(fā)是游戲中最常見的建模技術,而近些年基于發(fā)絲的毛發(fā)正在越來越頻繁地被使用。然而,通過光柵化將毛發(fā)繪制成數(shù)百萬個細三角形條帶會導致過度繪制問題,給 GPU 帶來巨大的負擔。
考慮到 NVIDIA GPU 不斷攀升的光線追蹤性能,實時光線追蹤渲染是否是比光柵化更好的選擇這一話題值得探討。本次演講將分享使用 NVIDIA RTX 技術,以更高效率和質量渲染發(fā)絲的幾種嘗試,主要包括三個方面:(1)DXR 中高效準確的光線-發(fā)絲相交方法;(2) 混合多重散射解決方案和 (3) 針對發(fā)絲的去噪。
預約感興趣的演講內容
想要預約以上精彩內容?在 GTC 大會官網搜索相關會議代碼找到對應演講內容,通過點擊“Add to Schedule”或點擊“星星”,將該演講內容添加至您的日程,大會開始后登錄即可在線觀看。
例如:搜索演講代碼 [S52337],該演講為VOD(在線點播形式),點擊右上角五角星,將該演講添加至您的日程。
如果尚未注冊,請點擊鏈接查看 GTC23 注冊教程。
掃描下方海報二維碼,鎖定 NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛的 GTC 主題演講!北京時間 3 月 21 日 23:00 全球首播,3 月 22 日 10:00 中國重播。深度解讀 NVIDIA 加速計算平臺如何推動人工智能、元宇宙、云技術和可持續(xù)計算的下一波浪潮。加入 GTC23,切勿錯過 AI 的決定性時刻!
原文標題:GTC 23 | 點擊解鎖騰訊技術專家精彩演講!
文章出處:【微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。
-
英偉達
+關注
關注
22文章
3824瀏覽量
91573
原文標題:GTC 23 | 點擊解鎖騰訊技術專家精彩演講!
文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論