0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

PLASTER:一個(gè)與深度學(xué)習(xí)性能有關(guān)的框架

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來(lái)源:未知 ? 作者:胡薇 ? 2018-06-22 15:07 ? 次閱讀

PLASTER是一個(gè)與深度學(xué)習(xí)有關(guān)的框架,為致力于開(kāi)發(fā)和部署基于 AI 的服務(wù)的人士提供了全方位指導(dǎo)。本文介紹了每個(gè)框架元素的測(cè)量方式,以幫助您應(yīng)對(duì)諸多 AI 挑戰(zhàn)。

目前,業(yè)界對(duì)深度學(xué)習(xí)的性能存在很多疑惑。在今年早些時(shí)候的GPU技術(shù)大會(huì)上,黃仁勛先生曾表示,“超大規(guī)模數(shù)據(jù)中心是世界上有史以來(lái)最復(fù)雜的計(jì)算機(jī)”。

那么,我們?cè)撊绾螌?duì)深度學(xué)習(xí)的性能進(jìn)行評(píng)估呢?標(biāo)準(zhǔn)又有哪些?

對(duì)此,我們的答案是:PLASTER。這是一個(gè)與深度學(xué)習(xí)性能有關(guān)的框架,涵蓋了每一個(gè)驅(qū)動(dòng)深度學(xué)習(xí)性能發(fā)展的要素。

PLASTER——Programmability 可編程

機(jī)器學(xué)習(xí)正在經(jīng)歷爆炸式發(fā)展,這不僅體現(xiàn)在模型的大小和復(fù)雜性上,還體現(xiàn)在迅速涌現(xiàn)的多種神經(jīng)網(wǎng)絡(luò)架構(gòu)上。因此,甚至連專家也難以深入了解模型選項(xiàng),然后選出合適的模型來(lái)解決他們的 AI 業(yè)務(wù)問(wèn)題。

完成深度學(xué)習(xí)模型的編碼和訓(xùn)練之后,要針對(duì)特定的運(yùn)行時(shí)推理環(huán)境優(yōu)化模型。NVIDIA 開(kāi)發(fā)出兩個(gè)重要工具,解決了訓(xùn)練和推理難題——CUDA和TensorRT(NVIDIA 可編程推理加速器)。此外,NVIDIA 的深度學(xué)習(xí)平臺(tái)能加快所有深度學(xué)習(xí)框架的訓(xùn)練和推理速度。

PLASTER——Latency 延遲

人和機(jī)器都需要對(duì)象反應(yīng)才能作出決策和采取行動(dòng)。延遲是指提出請(qǐng)求與收到反應(yīng)之間經(jīng)過(guò)的時(shí)間。

就大多數(shù)面向人類的軟件系統(tǒng)而言,延遲時(shí)間通常以毫秒計(jì)算。

消費(fèi)者和客戶服務(wù)應(yīng)用對(duì)數(shù)字助理的需求很廣泛。但是,在人嘗試與數(shù)字助理交互時(shí),即使是短短幾秒的延遲也會(huì)開(kāi)始讓人感到不自然。

PLASTER——Accuracy 準(zhǔn)確性

準(zhǔn)確性在各行各業(yè)都很重要,尤其是在醫(yī)療保健業(yè)。過(guò)去數(shù)十年里,醫(yī)學(xué)成像技術(shù)取得了長(zhǎng)足發(fā)展,這意味著需要將大量數(shù)據(jù)從醫(yī)療設(shè)備傳輸給醫(yī)療專家進(jìn)行分析。

一直以來(lái),無(wú)非通過(guò)兩種方式解決此數(shù)據(jù)量問(wèn)題:在高延遲的情況下傳輸完整的信息,或者數(shù)據(jù)取樣和重建,但相關(guān)技術(shù)可能導(dǎo)致重建和診斷不準(zhǔn)確。

深度學(xué)習(xí)的一個(gè)優(yōu)點(diǎn)是高精度訓(xùn)練和低精度實(shí)施。

PLASTER——Size of Model 模型大小

深度學(xué)習(xí)網(wǎng)絡(luò)模型的數(shù)量正在激增,其大小和復(fù)雜性也在相應(yīng)增長(zhǎng),這推動(dòng)著我們對(duì)功能更強(qiáng)大的訓(xùn)練系統(tǒng)的需求。在深度學(xué)習(xí)模型中,計(jì)算能力和物理網(wǎng)絡(luò)擴(kuò)展的推動(dòng)因素包括:

? 層數(shù)

? 每層節(jié)點(diǎn)數(shù)(神經(jīng)元數(shù))

? 每層的計(jì)算復(fù)雜度

? 某層的某個(gè)節(jié)點(diǎn)與鄰近層的節(jié)點(diǎn)之間的連接數(shù)

PLASTER——Throughput 吞吐量

開(kāi)發(fā)者正在指定的延遲閾值內(nèi)逐漸優(yōu)化推理性能。延遲限定可確保良好的客戶體驗(yàn),在該限值內(nèi)最大化吞吐量對(duì)最大程度提高數(shù)據(jù)中心效率和營(yíng)收至關(guān)重要。

一直以來(lái),業(yè)界都傾向于將吞吐量用作唯一的性能指標(biāo),原因是每秒計(jì)算次數(shù)越高,其他方面的性能通常也越好。但是,如果系統(tǒng)未能按照指定的延遲要求、功耗預(yù)算或服務(wù)器節(jié)點(diǎn)數(shù)提供足夠的吞吐量,最終將無(wú)法很好地滿足應(yīng)用場(chǎng)合的推理需求。如果未能在吞吐量和延遲之間取得適當(dāng)?shù)钠胶?,可能?huì)導(dǎo)致客戶服務(wù)水平低下、未達(dá)到服務(wù)水平協(xié)議 (SLA) 的要求和服務(wù)遭遇失敗。

PLASTER——Energy Efficiency 能效

隨著深度學(xué)習(xí)加速器的性能不斷提升,它的功耗也越來(lái)越高。功耗可能會(huì)迅速增加向客戶提供服務(wù)的成本,因此,關(guān)注設(shè)備和系統(tǒng)的能效變得更有必要。

在某些場(chǎng)合下,需要密集地處理數(shù)據(jù)以便用自然的聲音智能地回答問(wèn)題,而語(yǔ)音處理恰好就是這樣一種解決方案。能實(shí)時(shí)處理語(yǔ)音的數(shù)據(jù)中心推理功能無(wú)疑需要使用許多個(gè)機(jī)架的計(jì)算機(jī),從而影響到公司的總體擁有成本。因此,業(yè)界開(kāi)始使用每瓦特推理次數(shù)來(lái)衡量運(yùn)營(yíng)成效。超大規(guī)模數(shù)據(jù)中心正設(shè)法最大程度地提高能效,即在固定的功耗預(yù)算下提供盡可能多的推理次數(shù)。

PLASTER——Rate of Learning 學(xué)習(xí)頻率

“AI”由兩個(gè)詞組成,其中一個(gè)是智能 (Intelligence)。因此,用戶將希望神經(jīng)網(wǎng)絡(luò)能在合理的期限內(nèi)學(xué)習(xí)和適應(yīng)。要使復(fù)雜的深度學(xué)習(xí)系統(tǒng)獲得商業(yè)界的青睞,軟件工具開(kāi)發(fā)者必須支持“開(kāi)發(fā)與運(yùn)維” (DevOps) 行動(dòng)。

各類組織正不斷試驗(yàn)深度學(xué)習(xí)技術(shù)和神經(jīng)網(wǎng)絡(luò),同時(shí)學(xué)習(xí)如何更有效地構(gòu)建和實(shí)施深度學(xué)習(xí)系統(tǒng)。由于推理服務(wù)會(huì)收集新的數(shù)據(jù),并且會(huì)不斷發(fā)展和變化,因此必須定期重新訓(xùn)練模型。所以,IT 組織和軟件開(kāi)發(fā)者必須提升模型接收新數(shù)據(jù)和重新訓(xùn)練的頻率。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    30896

    瀏覽量

    269107
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5503

    瀏覽量

    121169

原文標(biāo)題:PLASTER:一個(gè)與深度學(xué)習(xí)性能有關(guān)的框架 | 內(nèi)含白皮書(shū)下載鏈接

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    Nanopi深度學(xué)習(xí)之路(1)深度學(xué)習(xí)框架分析

    設(shè)備”,沒(méi)錯(cuò),雖然Nanopi迷你,但確實(shí)能夠運(yùn)行深度學(xué)習(xí)算法。但試用機(jī)會(huì)少的可憐,只有5個(gè),難道定要對(duì)申請(qǐng)志在必得嗎?NO!NO!NO!深度
    發(fā)表于 06-04 22:32

    深度學(xué)習(xí)發(fā)展的5個(gè)主力框架

    在這篇文章中,我想向大家介紹推動(dòng)深度學(xué)習(xí)發(fā)展的5個(gè)主力框架。這些框架使數(shù)據(jù)科學(xué)家和工程師更容易為復(fù)雜問(wèn)題構(gòu)建
    發(fā)表于 05-04 10:30 ?4057次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>發(fā)展的5<b class='flag-5'>個(gè)</b>主力<b class='flag-5'>框架</b>

    個(gè)全新的深度學(xué)習(xí)框架——計(jì)圖

    清華大學(xué)計(jì)算機(jī)系胡事民教授研究團(tuán)隊(duì)提出了個(gè)全新的深度學(xué)習(xí)框架——計(jì)圖(Jittor)。Jittor是
    的頭像 發(fā)表于 03-26 15:50 ?6817次閱讀

    機(jī)器學(xué)習(xí)性能誰(shuí)來(lái)評(píng)判?

    本期導(dǎo)讀 MLPerf 組織最近發(fā)布了最新輪機(jī)器學(xué)習(xí)性能測(cè)試結(jié)果,首次直接參加此次測(cè)試的新力量 賽靈思(Xilinx), 在最新 MLPerf 推斷基準(zhǔn)測(cè)試中取得了圖像分類最高的性能/峰值
    的頭像 發(fā)表于 11-05 09:46 ?1744次閱讀

    深度學(xué)習(xí)框架pytorch入門(mén)與實(shí)踐

    深度學(xué)習(xí)框架pytorch入門(mén)與實(shí)踐 深度學(xué)習(xí)是機(jī)器學(xué)習(xí)中的
    的頭像 發(fā)表于 08-17 16:03 ?1603次閱讀

    深度學(xué)習(xí)框架是什么?深度學(xué)習(xí)框架有哪些?

    高模型的精度和性能。隨著人工智能和機(jī)器學(xué)習(xí)的迅猛發(fā)展,深度學(xué)習(xí)框架已成為了研究和開(kāi)發(fā)人員們必備的工具之
    的頭像 發(fā)表于 08-17 16:03 ?2746次閱讀

    深度學(xué)習(xí)框架區(qū)分訓(xùn)練還是推理嗎

    深度學(xué)習(xí)框架區(qū)分訓(xùn)練還是推理嗎 深度學(xué)習(xí)框架
    的頭像 發(fā)表于 08-17 16:03 ?1389次閱讀

    深度學(xué)習(xí)框架的作用是什么

    深度學(xué)習(xí)框架的作用是什么 深度學(xué)習(xí)種計(jì)算機(jī)技術(shù),它利用人工神經(jīng)網(wǎng)絡(luò)來(lái)模擬人類的
    的頭像 發(fā)表于 08-17 16:10 ?1569次閱讀

    深度學(xué)習(xí)框架tensorflow介紹

    深度學(xué)習(xí)框架tensorflow介紹 深度學(xué)習(xí)框架TensorFlow簡(jiǎn)介
    的頭像 發(fā)表于 08-17 16:11 ?2522次閱讀

    深度學(xué)習(xí)算法庫(kù)框架學(xué)習(xí)

    深度學(xué)習(xí)算法庫(kù)框架學(xué)習(xí) 深度學(xué)習(xí)種非常強(qiáng)大的機(jī)器
    的頭像 發(fā)表于 08-17 16:11 ?701次閱讀

    深度學(xué)習(xí)框架對(duì)照表

    深度學(xué)習(xí)框架對(duì)照表? 隨著人工智能技術(shù)的發(fā)展,深度學(xué)習(xí)正在成為當(dāng)今最熱門(mén)的研究領(lǐng)域之。而
    的頭像 發(fā)表于 08-17 16:11 ?805次閱讀

    深度學(xué)習(xí)框架連接技術(shù)

    深度學(xué)習(xí)框架連接技術(shù) 深度學(xué)習(xí)框架
    的頭像 發(fā)表于 08-17 16:11 ?783次閱讀

    深度學(xué)習(xí)cntk框架介紹

    ,CNTK框架是非常重要的部分。本篇文章將介紹CNTK框架的概覽、起源、結(jié)構(gòu)以及應(yīng)用等內(nèi)容,更深入了解CNTK框架。 、CNTK
    的頭像 發(fā)表于 08-17 16:11 ?1379次閱讀

    深度學(xué)習(xí)框架深度學(xué)習(xí)算法教程

    深度學(xué)習(xí)框架深度學(xué)習(xí)算法教程 深度學(xué)習(xí)是機(jī)器
    的頭像 發(fā)表于 08-17 16:11 ?1086次閱讀

    TensorFlow與PyTorch深度學(xué)習(xí)框架的比較與選擇

    深度學(xué)習(xí)作為人工智能領(lǐng)域的個(gè)重要分支,在過(guò)去十年中取得了顯著的進(jìn)展。在構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型的
    的頭像 發(fā)表于 07-02 14:04 ?973次閱讀