0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

美團(tuán)落實 AI 框架在 GPU 上性能推理的優(yōu)化實踐

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 作者:NVIDIA英偉達(dá)企業(yè)解 ? 2021-12-28 09:11 ? 次閱讀

美團(tuán)是一家集生活服務(wù)及商品零售的電商平臺,公司聚焦“零售+科技”戰(zhàn)略,以“吃”為核心,通過科技創(chuàng)新,服務(wù)于生活服務(wù)業(yè)需求側(cè)和供給側(cè)數(shù)字化升級。美團(tuán)在中國業(yè)務(wù)涵蓋餐飲、配送、網(wǎng)約車、共享單車、酒店及旅游預(yù)訂、電影票務(wù)等 200 多個服務(wù)品類,覆蓋全國 2800 個市區(qū)縣,服務(wù) 6.7 億活躍用戶和 830萬活躍商家。

伴隨著用戶規(guī)模的提升和業(yè)務(wù)的精細(xì)化運營,業(yè)務(wù)側(cè)對推薦系統(tǒng)的準(zhǔn)確度、吞吐能力和時延都提出了新的挑戰(zhàn),而 CTR 模型作為推薦系統(tǒng)的核心模型,其效果直接影響業(yè)務(wù)的收入。

美團(tuán)的 CTR 模型過去一直在使用 CPU 推理的方式,但隨著用戶訪問量的提升和深度神經(jīng)網(wǎng)絡(luò)的引入,CTR 模型結(jié)構(gòu)趨于復(fù)雜,吞吐和計算量也越來越大,CPU 開始不能滿足模型對于算力的需求,而僅僅通過 CPU 服務(wù)器的堆疊帶來的性能提升性價比相較偏低。

GPU 擁有數(shù)以千計的計算核心,可以在單機(jī)內(nèi)提供密集的并行計算能力,特別適合深度學(xué)習(xí)場景,在行業(yè)內(nèi)已經(jīng)在 CV 、NLP 等領(lǐng)域展示了強(qiáng)大的能力。通過 CUDA 及相關(guān) API ,NVIDIA 建立了完整的 GPU 生態(tài)系統(tǒng)。基于此,美團(tuán)基礎(chǔ)研發(fā)平臺將 CTR 模型部署到 GPU 上,并通過一系列針對 CPU 與 GPU 的異構(gòu)系統(tǒng)并行計算設(shè)計、數(shù)據(jù)存儲方式和傳輸方式上的特定優(yōu)化,希望能通過 GPU 強(qiáng)大的計算力,協(xié)助美團(tuán)在 CTR 預(yù)測的各業(yè)務(wù)場景中發(fā)揮出最大優(yōu)勢。

為了解決算力瓶頸及上述各種挑戰(zhàn),美團(tuán)機(jī)器學(xué)習(xí)平臺采用 NVIDIA AI 計算平臺,在繼 CV 、NLP 及 CTR 訓(xùn)練后,也使用了 NVIDIA T4 來提供 CTR 預(yù)測支持,大幅提升用戶體驗與服務(wù)穩(wěn)定性。除此之外,時延也是業(yè)務(wù)側(cè)非常重視的性能指標(biāo),許多復(fù)雜模型縱有更好的準(zhǔn)確度,但卻因響應(yīng)時間不達(dá)標(biāo)而無法落地應(yīng)用,例如,在某搜索框自動補(bǔ)全的場景,由于天然的交互屬性,時延要求非??量蹋话銇碚f無法使用復(fù)雜的模型。而在 GPU 能力的加持下,其復(fù)雜模型的平均響應(yīng)時間從 15 毫秒降低至 6~7 毫秒,足足縮短了一倍多,達(dá)到了上線要求。

通過 NVIDIA T4 深度優(yōu)化方案,成功為美團(tuán) CTR 模型創(chuàng)造更多應(yīng)用機(jī)會,不僅極大地提升了系統(tǒng)吞吐量,更進(jìn)一步地提升了整個模型訓(xùn)練的速度與降低訓(xùn)練成本,落實 AI 框架在 GPU 上性能推理的優(yōu)化實踐。

美團(tuán)研發(fā)工程師,機(jī)器學(xué)習(xí)平臺預(yù)測引擎負(fù)責(zé)人王新表示,“在美團(tuán)和英偉達(dá)的共同努力下, CTR 預(yù)測服務(wù)成功的遷移到 GPU 平臺上,在為業(yè)務(wù)提供更好的支撐的同時也獲得了更好的性價比;下一步,機(jī)器學(xué)習(xí)平臺計劃采用 NVIDIA Triton 推理服務(wù)框架和 NVIDIA Ampere A30 ,進(jìn)一步提升美團(tuán)推理服務(wù)的效率。”

原文標(biāo)題:美團(tuán)機(jī)器學(xué)習(xí)平臺使用 NVIDIA GPU 助力公司 CTR 預(yù)測服務(wù)升級

文章出處:【微信公眾號:NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

審核編輯:彭菁
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    10898

    瀏覽量

    212554
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5068

    瀏覽量

    103462
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    31395

    瀏覽量

    269785
  • 美團(tuán)
    +關(guān)注

    關(guān)注

    0

    文章

    125

    瀏覽量

    10390

原文標(biāo)題:美團(tuán)機(jī)器學(xué)習(xí)平臺使用 NVIDIA GPU 助力公司 CTR 預(yù)測服務(wù)升級

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    SSM框架性能優(yōu)化技巧 SSM框架中RESTful API的實現(xiàn)

    SSM框架性能優(yōu)化技巧 SSM(Spring + Spring MVC + MyBatis)框架性能
    的頭像 發(fā)表于 12-17 09:10 ?240次閱讀

    SSM框架在Java開發(fā)中的應(yīng)用 如何使用SSM進(jìn)行web開發(fā)

    。以下是對SSM框架在Java開發(fā)中的應(yīng)用,以及如何使用SSM進(jìn)行web開發(fā)的介紹: SSM框架的組件及其作用 Spring :Spring是一個開源的Java/Java EE全功能棧
    的頭像 發(fā)表于 12-16 17:28 ?597次閱讀

    Arm KleidiAI助力提升PyTorchLLM推理性能

    熱門的深度學(xué)習(xí)框架尤為突出,許多企業(yè)均會選擇其作為開發(fā) AI 應(yīng)用的庫。通過部署 Arm Kleidi 技術(shù),Arm 正在努力優(yōu)化 PyTorch,以加速在基于 Arm 架構(gòu)的處理器
    的頭像 發(fā)表于 12-03 17:05 ?884次閱讀
    Arm KleidiAI助力提升PyTorch<b class='flag-5'>上</b>LLM<b class='flag-5'>推理性能</b>

    《算力芯片 高性能 CPUGPUNPU 微架構(gòu)分析》第3篇閱讀心得:GPU革命:從圖形引擎到AI加速器的蛻變

    對卷積核優(yōu)化的思考。 GPU的存儲體系采用了獨特的倒金字塔結(jié)構(gòu),在我看來這是其計算性能的關(guān)鍵。大容量寄存器設(shè)計破解了傳統(tǒng)馮諾依曼架構(gòu)的內(nèi)存瓶頸,合并訪存機(jī)制巧妙解決了內(nèi)存帶寬限制。NVIDIA
    發(fā)表于 11-24 17:12

    NPU與GPU性能對比

    它們在不同應(yīng)用場景下的表現(xiàn)。 一、設(shè)計初衷與優(yōu)化方向 NPU : 專為加速AI任務(wù)而設(shè)計,包括深度學(xué)習(xí)和推理。 針對神經(jīng)網(wǎng)絡(luò)的計算模式進(jìn)行了優(yōu)化,能夠高效地執(zhí)行矩陣乘法、卷積等操作。
    的頭像 發(fā)表于 11-14 15:19 ?1508次閱讀

    FPGA和ASIC在大模型推理加速中的應(yīng)用

    隨著現(xiàn)在AI的快速發(fā)展,使用FPGA和ASIC進(jìn)行推理加速的研究也越來越多,從目前的市場來說,有些公司已經(jīng)有了專門做推理的ASIC,像Groq的LPU,專門針對大語言模型的推理做了
    的頭像 發(fā)表于 10-29 14:12 ?626次閱讀
    FPGA和ASIC在大模型<b class='flag-5'>推理</b>加速中的應(yīng)用

    TI TDA2x SoC基于GPU的環(huán)視優(yōu)化

    電子發(fā)燒友網(wǎng)站提供《TI TDA2x SoC基于GPU的環(huán)視優(yōu)化.pdf》資料免費下載
    發(fā)表于 10-10 09:14 ?0次下載
    TI TDA2x SoC<b class='flag-5'>上</b>基于<b class='flag-5'>GPU</b>的環(huán)視<b class='flag-5'>優(yōu)化</b>

    揭秘動態(tài)化跨端框架在鴻蒙系統(tǒng)下的高性能解決方案

    平臺解決方案。 在研發(fā)團(tuán)隊使用后可大幅降低研發(fā)人力成本;為業(yè)務(wù)提供實時觸達(dá)、A/B觸達(dá)等能力以提升業(yè)務(wù)投放效率;同時保障了C端用戶優(yōu)秀的用戶體驗。 一、動態(tài)化跨端框架原理介紹 ? ? ? ? ? 通過上圖,我們先了解一下動態(tài)化跨端框架在iOS、Android等多個平臺實現(xiàn)
    的頭像 發(fā)表于 10-08 13:46 ?928次閱讀
    揭秘動態(tài)化跨端<b class='flag-5'>框架在</b>鴻蒙系統(tǒng)下的高<b class='flag-5'>性能</b>解決方案

    澎峰科技高性能大模型推理引擎PerfXLM解析

    自ChatGPT問世以來,大模型遍地開花,承載大模型應(yīng)用的高性能推理框架也不斷推出,大有百家爭鳴之勢。在這種情況下,澎峰科技作為全球領(lǐng)先的智能計算服務(wù)提供商,在2023年11月25日發(fā)布了針對大語言
    的頭像 發(fā)表于 09-29 10:14 ?537次閱讀
    澎峰科技高<b class='flag-5'>性能</b>大模型<b class='flag-5'>推理</b>引擎PerfXLM解析

    AI真·煉丹:整整14天,無需人類參與

    ,甚至是整個AI平臺或全流程加速實踐成果,重點就是如何更好地利用CPU來提升AI,包括大模型應(yīng)用的性能和效率。
    的頭像 發(fā)表于 07-02 14:15 ?318次閱讀
    <b class='flag-5'>AI</b>真·煉丹:整整14天,無需人類參與

    進(jìn)一步解讀英偉達(dá) Blackwell 架構(gòu)、NVlink及GB200 超級芯片

    。 **英偉達(dá)Blackwell架構(gòu)在數(shù)據(jù)中心方面的應(yīng)用有哪些?** 1. **AI **大模型訓(xùn)練 Blackwell 架構(gòu)的 GPU 針對當(dāng)前火爆的 AI 大模型進(jìn)行了優(yōu)化,能夠
    發(fā)表于 05-13 17:16

    利用NVIDIA組件提升GPU推理的吞吐

    實踐中,唯品會 AI 平臺與 NVIDIA 團(tuán)隊合作,結(jié)合 NVIDIA TensorRT 和 NVIDIA Merlin HierarchicalKV(HKV)將推理的稠密網(wǎng)絡(luò)和熱 Embedding 全置于
    的頭像 發(fā)表于 04-20 09:39 ?782次閱讀

    開發(fā)者手機(jī) AI - 目標(biāo)識別 demo

    Lite的API接口實現(xiàn)主要功能; Mindspore Lite為Openharmony AI推理框架,為上層應(yīng)用提供統(tǒng)一的AI推理接口,
    發(fā)表于 04-11 16:14

    FPGA在深度學(xué)習(xí)應(yīng)用中或?qū)⑷〈?b class='flag-5'>GPU

    最后說,“我們決定專注于軟件業(yè)務(wù),探索研究提升神經(jīng)網(wǎng)絡(luò)性能和降低延遲的方案。Zebra 運行在 FPGA ,因此無需更換硬件就可以支持 AI 推理。FPGA 固件的每次刷新都能給我
    發(fā)表于 03-21 15:19

    AI推理框架軟件ONNX Runtime正式支持龍架構(gòu)

    近日,知名AI推理框架開源社區(qū)ONNX Runtime正式發(fā)布支持龍架構(gòu)的版本1.17.0。
    的頭像 發(fā)表于 03-12 12:23 ?611次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>推理</b><b class='flag-5'>框架</b>軟件ONNX Runtime正式支持龍架構(gòu)