0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)框架只為GPU? 答案在這里

模擬對(duì)話 ? 2018-03-14 18:29 ? 次閱讀

目前大多數(shù)的機(jī)器學(xué)習(xí)是在處理器上完成的,大多數(shù)機(jī)器學(xué)習(xí)軟件會(huì)針對(duì)GPU進(jìn)行更多的優(yōu)化,甚至有人認(rèn)為學(xué)習(xí)加速必須在GPU上才能完成,但事實(shí)上無(wú)論是運(yùn)行機(jī)器學(xué)習(xí)的處理器還是優(yōu)化的深度學(xué)習(xí)框架,都不單只針對(duì)GPU,代號(hào)為“Skylake”的英特爾至強(qiáng)SP處理器就證明了這一點(diǎn)。

機(jī)器學(xué)習(xí)軟件在英特爾至強(qiáng)SP系列白金版上的一系列基準(zhǔn)測(cè)試性能表現(xiàn)與在GPU上非常相近,了解了底層架構(gòu)之后,我們可以看到,在性能如此接近的情況下,使用GPU加速器更像是在購(gòu)買一種“奢侈品”,用戶在GPU以外還有很多其他的選擇。毫無(wú)疑問(wèn),在用戶只需要機(jī)器學(xué)習(xí)的情況下,“加速器”在性能和能耗方面更有優(yōu)勢(shì),大多數(shù)人需要的不只是一臺(tái)“智能的用于機(jī)器學(xué)習(xí)的服務(wù)器”,那就讓我們來(lái)重點(diǎn)看一下英特爾至強(qiáng)SP 白金級(jí)處理器為什么是最佳的選擇:

CPU優(yōu)化深度學(xué)習(xí)框架和函數(shù)庫(kù)

英特爾在基于GPU優(yōu)化的框架中增加了CPU優(yōu)化深度學(xué)習(xí)框架, 打破了深度學(xué)習(xí)框架偏重于GPU而忽視了CPU的行業(yè)現(xiàn)狀,解決了目前這些框架缺乏CPU優(yōu)化的實(shí)際問(wèn)題。

- TensorFlow由谷歌開(kāi)發(fā),是一個(gè)領(lǐng)先的深度學(xué)習(xí)和機(jī)器學(xué)習(xí)框架,有面向Linux的處理器優(yōu)化

- Caffe是圖片識(shí)別領(lǐng)域最受歡迎的應(yīng)用之一,英特爾提供的優(yōu)化可以在CPU運(yùn)行時(shí)提高Caffe的性能

- Torch是當(dāng)下流行的深度學(xué)習(xí)框架,需要在優(yōu)化的CPU上應(yīng)用,可以通過(guò)英特爾軟件優(yōu)化(比如英特爾至強(qiáng)可擴(kuò)展處理器)提高Torch在CPU上的性能

- Theano是一個(gè)開(kāi)源的Python庫(kù),很受機(jī)器學(xué)習(xí)程序員的歡迎,它可以幫助程序員高效地定義、優(yōu)化和評(píng)估涉及多維陣列的數(shù)學(xué)表達(dá)式

- Neon是一個(gè)基于Python的深度學(xué)習(xí)框架,目的是在現(xiàn)代深度神經(jīng)網(wǎng)絡(luò)上實(shí)現(xiàn)易用性和可擴(kuò)展性,并致力于在所有硬件上實(shí)現(xiàn)性能的最大化

- MXNet是一個(gè)開(kāi)源的深度學(xué)習(xí)框架

- Python及其函數(shù)庫(kù)是機(jī)器學(xué)習(xí)應(yīng)用里最受歡迎的基礎(chǔ)組成,Python加速版過(guò)去幾年里得到了廣泛應(yīng)用,并且可以直接下載或通過(guò)Conda、yum、apt-get或Docker images下載

- BigDL是一個(gè)面向Apache Spark的分布式深度學(xué)習(xí)函數(shù)庫(kù)。通過(guò)BigDL用戶可以把自己的深度學(xué)習(xí)應(yīng)用當(dāng)作標(biāo)準(zhǔn)Apache Spark程序來(lái)編寫,直接在現(xiàn)有Apache Spark或Hadoop集群上運(yùn)行。在Torch基礎(chǔ)上開(kāi)發(fā)的BigDL可以為深度學(xué)習(xí)提供綜合性支持:包括數(shù)值計(jì)算(通過(guò)Tensor)和高級(jí)神經(jīng)網(wǎng)絡(luò);此外用戶還可以利用BigDL把提前訓(xùn)練的Caffe或Torch模型載入Spark程序。英特爾曾聲稱在一個(gè)單節(jié)點(diǎn)至強(qiáng)處理器上(例如與GPU相比),BigDL中的處理速度比原始開(kāi)源Caffe、Torch或TensorFlow要高一個(gè)數(shù)量級(jí)

- 英特爾MKL-DNN是一個(gè)開(kāi)源的、性能強(qiáng)化的函數(shù)庫(kù),用于加速在CPU上的深度學(xué)習(xí)框架

- 英特爾數(shù)據(jù)分析加速庫(kù)(DAAL)是一個(gè)包含了被優(yōu)化的算法構(gòu)建模塊的開(kāi)源函數(shù)庫(kù),針對(duì)大數(shù)據(jù)問(wèn)題最相關(guān)的數(shù)據(jù)分析階段。這個(gè)函數(shù)庫(kù)適用于當(dāng)下流行的數(shù)據(jù)平臺(tái),包括Hadoop、Spark、R和Matlab

結(jié)果證明了一切,無(wú)論是TensorFlow、Caffe,還是Torch、Theano,這些深度學(xué)習(xí)框架都針對(duì)英特爾數(shù)學(xué)核心函數(shù)庫(kù)(Intel MKL)和英特爾高級(jí)矢量擴(kuò)展指令集(Intel AVX)進(jìn)行了優(yōu)化。通過(guò)CPU優(yōu)化,TensorFlow和Caffe基準(zhǔn)測(cè)試中的CPU性能分別提高了72倍和82倍。

機(jī)器學(xué)習(xí)加速器

科技與行業(yè)的發(fā)展都是瞬息萬(wàn)變的,機(jī)器學(xué)習(xí)的加速器也會(huì)從GPU轉(zhuǎn)向FPGA、ASIC等等,除非我們永遠(yuǎn)只需要一臺(tái)只能用于機(jī)器學(xué)習(xí)的服務(wù)器,只要在一臺(tái)服務(wù)器上想實(shí)現(xiàn)可以支持各種的工作負(fù)載,英特爾至強(qiáng)可擴(kuò)展處理器無(wú)疑是最佳的解決方案。加速器的選擇正在變得多元化,這是整個(gè)行業(yè)的發(fā)展趨勢(shì),多核CPU(英特爾至強(qiáng)融核處理器,特別是“Knights Mill”版)和FPGA(英特爾至強(qiáng)處理器,包含Intel/Altera FPGA)都可以提供更靈活的選擇、卓越的性價(jià)比和高能效?;谟⑻貭栔翉?qiáng)融核處理器訓(xùn)練或?qū)W習(xí)一個(gè)AlexNet圖片分類系統(tǒng)的速度,是使用NVIDIA GPU的類似配置系統(tǒng)的2.3倍;英特爾至強(qiáng)融核處理器的性價(jià)比最高可以是GPU解決方案的9倍,每瓦性能高達(dá)8倍,英特爾Nervana將推出更多專為人工智能開(kāi)發(fā)的產(chǎn)品。英特爾至強(qiáng)SP系列處理器為機(jī)器學(xué)習(xí)提供了卓越的性能,同時(shí)相比其他解決方案也為我們帶來(lái)了更多的功能與選擇,讓我們?cè)诋a(chǎn)品與行業(yè)的發(fā)展中都可以擁有更多可能。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • FPGA
    +關(guān)注

    關(guān)注

    1630

    文章

    21794

    瀏覽量

    605109
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4767

    瀏覽量

    129204
  • 人工智能
    +關(guān)注

    關(guān)注

    1793

    文章

    47622

    瀏覽量

    239569
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8438

    瀏覽量

    132904
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5512

    瀏覽量

    121398
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    深度學(xué)習(xí)工作負(fù)載中GPU與LPU的主要差異

    ,一個(gè)新的競(jìng)爭(zhēng)力量——LPU(Language Processing Unit,語(yǔ)言處理單元)已悄然登場(chǎng),LPU專注于解決自然語(yǔ)言處理(NLP)任務(wù)中的順序性問(wèn)題,是構(gòu)建AI應(yīng)用不可或缺的一環(huán)。 本文旨在探討深度學(xué)習(xí)工作負(fù)載中GPU
    的頭像 發(fā)表于 12-09 11:01 ?405次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>工作負(fù)載中<b class='flag-5'>GPU</b>與LPU的主要差異

    GPU深度學(xué)習(xí)中的應(yīng)用 GPUs在圖形設(shè)計(jì)中的作用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心部分,已經(jīng)成為推動(dòng)技術(shù)進(jìn)步的重要力量。GPU(圖形處理單元)在深度學(xué)習(xí)中扮演著至關(guān)重要的角色,
    的頭像 發(fā)表于 11-19 10:55 ?656次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    設(shè)計(jì)的硬件加速器,它在深度學(xué)習(xí)中的應(yīng)用日益廣泛。 1. NPU的基本概念 NPU是一種專門針對(duì)深度學(xué)習(xí)算法優(yōu)化的處理器,它與傳統(tǒng)的CPU和GPU
    的頭像 發(fā)表于 11-14 15:17 ?783次閱讀

    PyTorch GPU 加速訓(xùn)練模型方法

    深度學(xué)習(xí)領(lǐng)域,GPU加速訓(xùn)練模型已經(jīng)成為提高訓(xùn)練效率和縮短訓(xùn)練時(shí)間的重要手段。PyTorch作為一個(gè)流行的深度學(xué)習(xí)
    的頭像 發(fā)表于 11-05 17:43 ?607次閱讀

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識(shí)別 圖像識(shí)別是
    的頭像 發(fā)表于 10-27 11:13 ?457次閱讀

    深度學(xué)習(xí)GPU加速效果如何

    圖形處理器(GPU)憑借其強(qiáng)大的并行計(jì)算能力,成為加速深度學(xué)習(xí)任務(wù)的理想選擇。
    的頭像 發(fā)表于 10-17 10:07 ?234次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    。例如,在數(shù)據(jù)中心中,可以將 FPGA 與 CPU 或 GPU 結(jié)合使用,根據(jù)不同的任務(wù)需求進(jìn)行靈活的資源分配和協(xié)同計(jì)算,提高整個(gè)系統(tǒng)的性能和效率。 ? 算法優(yōu)化和創(chuàng)新:隨著深度學(xué)習(xí)算法的不斷發(fā)展和優(yōu)化
    發(fā)表于 09-27 20:53

    LM258在這個(gè)電路里是電壓跟隨器嗎?R4在這里不影響輸出電壓?jiǎn)幔?/a>

    我想問(wèn)一下LM258在這個(gè)電路里是電壓跟隨器嗎?R4在這里不影響輸出電壓?jiǎn)幔扛鶕?jù)虛短的原理,V-是等于Vref。 那么Vo和V-的關(guān)系怎么分析呢,是相等嗎?怎么根據(jù)虛斷的原理分析Vo和V-的關(guān)系?這里是怎么得到Vo=V-的呢?
    發(fā)表于 08-13 06:05

    NVIDIA推出全新深度學(xué)習(xí)框架fVDB

    在 SIGGRAPH 上推出的全新深度學(xué)習(xí)框架可用于打造自動(dòng)駕駛汽車、氣候科學(xué)和智慧城市的 AI 就緒型虛擬表示。
    的頭像 發(fā)表于 08-01 14:31 ?655次閱讀

    基于Python的深度學(xué)習(xí)人臉識(shí)別方法

    基于Python的深度學(xué)習(xí)人臉識(shí)別方法是一個(gè)涉及多個(gè)技術(shù)領(lǐng)域的復(fù)雜話題,包括計(jì)算機(jī)視覺(jué)、深度學(xué)習(xí)、以及圖像處理等。在這里,我將概述一個(gè)基本的
    的頭像 發(fā)表于 07-14 11:52 ?1308次閱讀

    深度學(xué)習(xí)常用的Python庫(kù)

    深度學(xué)習(xí)常用的Python庫(kù),包括核心庫(kù)、可視化工具、深度學(xué)習(xí)框架、自然語(yǔ)言處理庫(kù)以及數(shù)據(jù)抓取庫(kù)等,并詳細(xì)分析它們的功能和優(yōu)勢(shì)。
    的頭像 發(fā)表于 07-03 16:04 ?690次閱讀

    TensorFlow與PyTorch深度學(xué)習(xí)框架的比較與選擇

    深度學(xué)習(xí)作為人工智能領(lǐng)域的一個(gè)重要分支,在過(guò)去十年中取得了顯著的進(jìn)展。在構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型的過(guò)程中,深度
    的頭像 發(fā)表于 07-02 14:04 ?1031次閱讀

    新手小白怎么學(xué)GPU云服務(wù)器跑深度學(xué)習(xí)?

    新手小白想用GPU云服務(wù)器跑深度學(xué)習(xí)應(yīng)該怎么做? 用個(gè)人主機(jī)通常pytorch可以跑但是LexNet,AlexNet可能就直接就跑不動(dòng),如何實(shí)現(xiàn)更經(jīng)濟(jì)便捷的實(shí)現(xiàn)GPU云服務(wù)器
    發(fā)表于 06-11 17:09

    BACKUP_PRIMASK和RESTORE_PRIMASK在這里主要作用是什么?

    ); } 請(qǐng)問(wèn),BACKUP_PRIMASK和RESTORE_PRIMASK在這里主要作用是什么?像是對(duì)中斷某些掩碼的壓棧出棧,具體在這里什么意思呢?感謝
    發(fā)表于 04-29 07:10

    FPGA在深度學(xué)習(xí)應(yīng)用中或?qū)⑷〈?b class='flag-5'>GPU

    、筆記本電腦或機(jī)架式服務(wù)器上訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),這不是什么大問(wèn)題。但是,許多部署深度學(xué)習(xí)模型的環(huán)境對(duì) GPU 并不友好,比如自動(dòng)駕駛汽車、工廠、機(jī)器人和許多智慧城市環(huán)境,在這些環(huán)境中硬件必
    發(fā)表于 03-21 15:19