0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

MLPerf訓(xùn)練評估已部署機器學習模型的執(zhí)行時間

星星科技指導(dǎo)員 ? 來源:嵌入式計算設(shè)計 ? 作者:Saumitra Jagdale ? 2022-07-10 15:17 ? 次閱讀

機器學習 (ML) 需要行業(yè)標準的性能基準,以幫助創(chuàng)建和競爭評估眾多與 ML 相關(guān)的軟件和硬件解決方案。

然而,與其他領(lǐng)域不同,ML 訓(xùn)練面臨三個不同的基準測試挑戰(zhàn):

提高訓(xùn)練吞吐量的優(yōu)化可以增加求解時間。

訓(xùn)練是隨機的,解決問題的時間差異很大。

軟件和硬件系統(tǒng)如此多樣化,以至于很難使用相同的二進制文件、代碼甚至超參數(shù)進行公平的基準測試。

MLcommons 的機器學習基準測試解決方案 MLPerf 旨在解決這些問題。MLPerf 在推動性能和可擴展性改進方面的功效在來自不同制造商的兩組數(shù)據(jù)中進行了統(tǒng)計評估。

MLPerf 旨在為機器學習提供一個具有代表性的基準套件,以正確測量系統(tǒng)性能,以實現(xiàn)五個高級目標:

允許對競爭系統(tǒng)進行公平比較,同時促進機器學習創(chuàng)新。

通過以公平和相關(guān)的方式衡量 ML 開發(fā)速度。

確保一致性結(jié)果的可重復(fù)性。

為商業(yè)和學術(shù)團體提供服務(wù)。

保持較低的基準測試成本,以便每個人都可以參與。

MLPerf 創(chuàng)建了一個基準套件,其中包括各種應(yīng)用程序、DNN 模型和優(yōu)化器。它還準確地指定了模型和訓(xùn)練技術(shù),以創(chuàng)建每個基準的參考實現(xiàn)。MLPerf 在比較結(jié)果時建立了時間限制以減少隨機性的影響。此外,它允許 ML 和系統(tǒng)社區(qū)通過使提交代碼開源來檢查和復(fù)制結(jié)果。

每個基準都會計算在給定數(shù)據(jù)集上訓(xùn)練模型以達到給定質(zhì)量目標所需的時間。最終結(jié)果是通過以特定于基準的次數(shù)測量基準,刪除最低和最高值,并對剩余結(jié)果進行平均以解釋 ML 訓(xùn)練持續(xù)時間的巨大差異來生成的。即使是平均結(jié)果數(shù)量也不足以消除所有波動。成像基準的結(jié)果通常為 +/- 2.5%,而其他基準通常為 +/- 5%。

MLPerf 希望通過讓提交者重新實現(xiàn)參考實現(xiàn)來刺激軟件和硬件方面的創(chuàng)新。MLPerf 有兩個部門,提供不同程度的重新實現(xiàn)自由度。封閉部門要求使用與參考實現(xiàn)相同的模型和優(yōu)化器,以便比較硬件平臺或軟件框架,“蘋果對蘋果”。開放部門旨在通過允許任何機器學習技術(shù)達到預(yù)期的質(zhì)量來促進更快的模型和優(yōu)化器。

ML 系統(tǒng)的行業(yè)基準

總而言之,MLPerf Training 是涵蓋商業(yè)和學術(shù)應(yīng)用的機器學習基準的集合。盡管它是唯一一個廣泛使用且覆蓋范圍如此廣泛的 ML 訓(xùn)練基準套件,但它幾乎沒有做出任何貢獻。首先,通過精確定義模型架構(gòu)和每個基準特征的訓(xùn)練程序,可以對等效工作負載進行系統(tǒng)比較。此外,為了解決對 ML 訓(xùn)練進行基準測試的挑戰(zhàn),使用了參考實現(xiàn)和規(guī)則定義。訓(xùn)練過程的隨機性、為了確定性能優(yōu)化的質(zhì)量影響而需要訓(xùn)練完成以及需要在各種系統(tǒng)規(guī)模下改變工作負載是一些挑戰(zhàn)。

盡管 MLPerf 側(cè)重于相對系統(tǒng)性能,但正如在線結(jié)果所證明的那樣,它還提供了 ML 和基準測試的一般課程。真實數(shù)據(jù)集的大小對于確保真實的內(nèi)存系統(tǒng)行為至關(guān)重要。例如,最初的 NCF 數(shù)據(jù)集太小而無法完全放入內(nèi)存中。此外,當對小于工業(yè)規(guī)模的數(shù)據(jù)集進行基準測試時,訓(xùn)練時間不應(yīng)包括啟動時間,這在實際使用中成比例地減少。

因此,MLPerf 正在迅速將自己確立為 ML 系統(tǒng)的行業(yè)基準,同時也是一個理想的論壇,用于發(fā)布分析師、投資者和買家可以依賴的基準測試結(jié)果的新產(chǎn)品。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 測量系統(tǒng)
    +關(guān)注

    關(guān)注

    2

    文章

    539

    瀏覽量

    41402
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8420

    瀏覽量

    132687
收藏 人收藏

    評論

    相關(guān)推薦

    充電樁CCC認證什么時候執(zhí)行?

    充電樁CCC認證的執(zhí)行時間表如下:
    的頭像 發(fā)表于 12-25 17:12 ?165次閱讀

    AI模型部署邊緣設(shè)備的奇妙之旅:目標檢測模型

    模型有更大的能力去記憶訓(xùn)練數(shù)據(jù),從而可能導(dǎo)致過擬合,特別是在小規(guī)模數(shù)據(jù)集上。 訓(xùn)練時間延長:因為需要額外的時間
    發(fā)表于 12-19 14:33

    構(gòu)建云原生機器學習平臺流程

    構(gòu)建云原生機器學習平臺是一個復(fù)雜而系統(tǒng)的過程,涉及數(shù)據(jù)收集、處理、特征提取、模型訓(xùn)練評估、部署
    的頭像 發(fā)表于 12-14 10:34 ?140次閱讀

    AI模型部署邊緣設(shè)備的奇妙之旅:如何實現(xiàn)手寫數(shù)字識別

    數(shù)字分類模型 如果說有自己制作數(shù)據(jù)的話,需要將數(shù)據(jù)上傳,然后在修改全局配置項,修改數(shù)據(jù)集地址以及對應(yīng)的類別數(shù)。 按照廠家提供的配置直接進行訓(xùn)練轉(zhuǎn)換。 模型訓(xùn)練
    發(fā)表于 12-06 17:20

    pycharm如何訓(xùn)練機器學習模型

    PyCharm是一個流行的Python集成開發(fā)環(huán)境(IDE),它提供了豐富的功能,包括代碼編輯、調(diào)試、測試等。在本文中,我們將介紹如何在PyCharm中訓(xùn)練機器學習模型。 一、安裝Py
    的頭像 發(fā)表于 07-11 10:14 ?823次閱讀

    預(yù)訓(xùn)練和遷移學習的區(qū)別和聯(lián)系

    預(yù)訓(xùn)練和遷移學習是深度學習機器學習領(lǐng)域中的兩個重要概念,它們在提高模型性能、減少
    的頭像 發(fā)表于 07-11 10:12 ?1076次閱讀

    如何理解機器學習中的訓(xùn)練集、驗證集和測試集

    理解機器學習中的訓(xùn)練集、驗證集和測試集,是掌握機器學習核心概念和流程的重要一步。這三者不僅構(gòu)成了模型
    的頭像 發(fā)表于 07-10 15:45 ?4094次閱讀

    解讀PyTorch模型訓(xùn)練過程

    PyTorch作為一個開源的機器學習庫,以其動態(tài)計算圖、易于使用的API和強大的靈活性,在深度學習領(lǐng)域得到了廣泛的應(yīng)用。本文將深入解讀PyTorch模型
    的頭像 發(fā)表于 07-03 16:07 ?1082次閱讀

    深度學習模型訓(xùn)練過程詳解

    詳細介紹深度學習模型訓(xùn)練的全過程,包括數(shù)據(jù)預(yù)處理、模型構(gòu)建、損失函數(shù)定義、優(yōu)化算法選擇、訓(xùn)練過程以及模型
    的頭像 發(fā)表于 07-01 16:13 ?1291次閱讀

    深度探討:無人機干擾器干擾執(zhí)行時間的關(guān)鍵影響因素

    隨著無人機技術(shù)的廣泛應(yīng)用,無人機干擾器作為防御和管控無人機的重要工具,其在軍事、民用及公共安全等領(lǐng)域發(fā)揮著重要作用。然而,無人機干擾器的干擾執(zhí)行時間直接決定了其有效性和實用性。本文將深入探討無人機干擾器干擾執(zhí)行時間的影響因素,并對這些因素進行詳細解析。
    的頭像 發(fā)表于 05-29 09:27 ?554次閱讀

    【大語言模型:原理與工程實踐】核心技術(shù)綜述

    其預(yù)訓(xùn)練和微調(diào),直到模型部署和性能評估。以下是對這些技術(shù)的綜述: 模型架構(gòu): LLMs通常采用深層的神經(jīng)網(wǎng)絡(luò)架構(gòu),最常見的是Transf
    發(fā)表于 05-05 10:56

    請問stm32cubeIDE仿真怎么看程序執(zhí)行時間

    就想keil仿真那樣,可以時刻監(jiān)視程序執(zhí)行時間,cubeide怎么在仿真debug時,監(jiān)視程序時間呢?
    發(fā)表于 04-02 07:47

    如何計算AURIX微控制器指令執(zhí)行時間?

    對于 AURIX TC38x,在數(shù)據(jù)表中,最大 CPU 頻率為 300MHz,如下所示- 因此,在此頻率下,每條指令的執(zhí)行時間將為:1/300 MHz = 3.33 ns。 這種理解正確嗎? 否則,如何計算每條指令的執(zhí)行時間或 MIPS。 這里的動機是計算特定應(yīng)用的
    發(fā)表于 01-23 08:08

    如何使用STM模塊測量函數(shù)的執(zhí)行時間?

    我想問你如何使用 STM 模塊測量函數(shù)的執(zhí)行時間。 是否有可能通過BSP.H庫的now () 函數(shù)為兩個類型為ifx_tickTimer的變量(分別為起始變量和停止變量分配分筆數(shù))來通過BSP默認
    發(fā)表于 01-22 06:38

    基于KEIL軟件的C語言編程,如何計算一段程序的執(zhí)行時間呢?

    如題,一段程序執(zhí)行時間怎樣確定,假如是把每條語句的執(zhí)行時間累加,那么每條語句的時間如何確定???有別的方法可以確定執(zhí)行時間
    發(fā)表于 01-18 06:10