0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

微軟宣布將多平臺通用ONNX機器學(xué)習(xí)引擎開源

DPVg_AI_era ? 來源:lq ? 2018-12-07 09:01 ? 次閱讀

微軟宣布將多平臺通用ONNX機器學(xué)習(xí)引擎開源,此舉將讓機器學(xué)習(xí)框架,向著機器學(xué)習(xí)框架的標(biāo)準(zhǔn)化和性能優(yōu)化方向邁進(jìn)了一大步。此前,為了推進(jìn)AI框架標(biāo)準(zhǔn)化,更好地支持PyTorch和TensorFlow等框架,微軟甚至降低了對自家CNTK框架的宣傳調(diào)門,可謂“用心良苦”。

當(dāng)?shù)貢r間12月4日,微軟在GitHub上宣布ONNX Runtime開源?。

ONNX Runtime是適用于Linux,Windows和Mac上ONNX格式的機器學(xué)習(xí)模型的高性能推理引擎。

ONNX是微軟與Facebook和AWS共同開發(fā)的深度學(xué)習(xí)和傳統(tǒng)機器學(xué)習(xí)模型的開放格式。ONNX格式是開放式生態(tài)系統(tǒng)的基礎(chǔ),使人工智能技術(shù)更易于訪問,而且可以為不同人群創(chuàng)造價值:

開發(fā)人員可以為自己機器學(xué)習(xí)任務(wù)選擇合適的框架,框架作者可以集中精力推出創(chuàng)新,提高框架的性能。對于硬件供應(yīng)商來說,也可以簡化神經(jīng)網(wǎng)絡(luò)計算的復(fù)雜度,實現(xiàn)優(yōu)化算法。

過去20多年來,微軟一直在進(jìn)行人工智能研究,并將機器學(xué)習(xí)和深度神經(jīng)網(wǎng)絡(luò)整合到旗下眾多產(chǎn)品和服務(wù)中。由于團隊使用許多不同的培訓(xùn)框架并針對不同的部署選項,因此確實需要統(tǒng)一這些分散的解決方案,以便快速,簡單地操作模型。

此次開源的ONNX Runtime為這個問題提供了解決方案。該工具為數(shù)據(jù)科學(xué)家在選擇的框架內(nèi)訓(xùn)練和調(diào)整模型提供了更高的靈活性,并在云端和產(chǎn)品設(shè)計中以高性能打造這些模型。

ONNX引擎是Windows ML組件的關(guān)鍵部分。微軟正在將這種機器學(xué)習(xí)界面納入到Windows 10系統(tǒng)中,讓開發(fā)人員在自己的Windows應(yīng)用程序上使用訓(xùn)練過的機器學(xué)習(xí)模型。 Windows ML推理引擎可以在Windows設(shè)備上對這些模型進(jìn)行本地評估,開發(fā)人員無需將模型放到云中運行。

ONNX Runtime有什么用?

ONNX是微軟公開推出的首款推理機,完整支持ONNX 1.2和 ONNX機器學(xué)習(xí)的更高版本。這意味著ONNX Runtime直接隨著ONNX的標(biāo)準(zhǔn)進(jìn)步,實現(xiàn)對一大批AI模型和技術(shù)突破的支持。

微軟的團隊在使用ONNX Runtime來改善在Bing搜索、廣告、Office產(chǎn)品套件等核心業(yè)務(wù)中的評分延時,提高運行效率。而對于由其他工具轉(zhuǎn)而使用ONNX的模型,其平均表現(xiàn)提升了2倍。此外,微軟的其他一些服務(wù),如Windows ML 和ML.net等,也納入了ONNX Runtime支持的業(yè)務(wù)之中。

ONNX Runtime在設(shè)計上是輕量級和模塊化的,CPU的構(gòu)建只有幾M字節(jié)??蓴U展架構(gòu)、優(yōu)化硬件加速器,降低計算延時,提升計算效率。

英偉達(dá)、英特爾、高通等巨頭紛紛支持

很多業(yè)界領(lǐng)先的企業(yè)都在積極將自己的技術(shù)與ONNX Runtime實現(xiàn)集成和整合,使自己的服務(wù)能夠完整支持ONNX規(guī)范,同時實現(xiàn)性能的最優(yōu)化。

微軟和英特爾正在合作,將nGraph編譯器集成為ONNX Runtime的執(zhí)行提供程序。nGraph編譯器能夠通過應(yīng)用非設(shè)備特定和設(shè)備特定的優(yōu)化來實現(xiàn)現(xiàn)有和未來的硬件加速。與原生框架相比,使用nGraph Compiler執(zhí)行CPU推理任務(wù)可將性能提升45倍。

英偉達(dá)正在努力將TensorRT與ONNX Runtime實現(xiàn)整合,為在英偉達(dá)的GPU上部署快速增長的模型和應(yīng)用程序提供簡便的工作流程,同時實現(xiàn)最佳性能。

NVIDIA TensorRT包括一個高性能的推理優(yōu)化器和運行時,可以在推薦器,自然語言處理和圖像/視頻處理等應(yīng)用程序中以最小的延遲提供極高的吞吐量。

ONNX的另一個早期支持者是高通,也支持ONNX Runtime。高通AI業(yè)務(wù)高級主管Gary Brotman表示:“ONNX Runtime的推出和開源是微軟提升跨設(shè)備類別框架的互操作性,實現(xiàn)標(biāo)準(zhǔn)化和性能優(yōu)化的積極一步,我們希望開發(fā)人員歡迎在驍龍移動平臺上支持ONNX Runtime。

業(yè)內(nèi)領(lǐng)先的物聯(lián)網(wǎng)芯片制造商恩智浦(NXP)最近也宣布支持ONNX Runtime。“我們希望,用戶在眾多機器學(xué)習(xí)框架中進(jìn)行選擇時能夠擁有最大的靈活性和自由度?!?/p>

恩智浦AI技術(shù)中心負(fù)責(zé)人Markus Levy表示。“我們很高興能夠通過支持微軟在我們的平臺上發(fā)布ONNX Runtime,讓機器學(xué)習(xí)開發(fā)者客戶群能夠享受ONNX帶來的好處?!?/p>

如何使用ONNX Runtime

首先,你需要建立一個ONNX模型。沒有ONNX模型?沒問題。ONNX的優(yōu)點就是能夠通過眾多工具實現(xiàn)框架的互操作性?。你可以直接從ONNX Model Zoo獲得ResNet和TinyYOLO等熱門模型的預(yù)訓(xùn)練版本。

你還可以使用Azure Custom Vision Cognitive Service創(chuàng)建自己的自定義計算機視覺模型。如果已經(jīng)擁有TensorFlow、Keras、Scikit-Learn或CoreML格式的模型,可以使用我們的開源轉(zhuǎn)換器(ONNX MLTools和TF2 ONNX)進(jìn)行轉(zhuǎn)換。

可以使用Azure機器學(xué)習(xí)服務(wù)訓(xùn)練新模型并保存為ONNX格式。

要使用ONNX Runtime,只需安裝所需平臺和所選語言的軟件包,或者從源代碼創(chuàng)建。ONNX Runtime支持?CPU?和?GPU?(CUDA)?以及兼容Linux、Windows和Mac上的Python、C#和C接口。具體的安裝說明可以在GitHub中獲取。

你可以直接從源或預(yù)編譯的二進(jìn)制文件將ONNX Runtime集成到代碼中,一種簡單的操作方法是使用Azure機器學(xué)習(xí)為應(yīng)用程序部署服務(wù),以待調(diào)用。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 微軟
    +關(guān)注

    關(guān)注

    4

    文章

    6623

    瀏覽量

    104303
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4778

    瀏覽量

    101023
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8437

    瀏覽量

    132893

原文標(biāo)題:微軟開源ONNX Runtime,想用什么深度學(xué)習(xí)框架任你選!

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    如何選擇云原生機器學(xué)習(xí)平臺

    當(dāng)今,云原生機器學(xué)習(xí)平臺因其彈性擴展、高效部署、低成本運營等優(yōu)勢,逐漸成為企業(yè)構(gòu)建和部署機器學(xué)習(xí)應(yīng)用的首選。然而,市場上的云原生
    的頭像 發(fā)表于 12-25 11:54 ?140次閱讀

    在算力魔方上運行Genesis:一款顛覆性開源生成式物理引擎!

    作者:算力魔方創(chuàng)始人 劉力 一,Genesis簡介 ? Genesis是一款由19個頂尖科研機構(gòu)聯(lián)手打造的,用于通用機器人、具身智能和物理 AI 應(yīng)用的開源生成式物理引擎。它可以生成整個世界,包括
    的頭像 發(fā)表于 12-23 18:10 ?228次閱讀
    在算力魔方上運行Genesis:一款顛覆性<b class='flag-5'>開源</b>生成式物理<b class='flag-5'>引擎</b>!

    構(gòu)建云原生機器學(xué)習(xí)平臺流程

    構(gòu)建云原生機器學(xué)習(xí)平臺是一個復(fù)雜而系統(tǒng)的過程,涉及數(shù)據(jù)收集、處理、特征提取、模型訓(xùn)練、評估、部署和監(jiān)控等多個環(huán)節(jié)。
    的頭像 發(fā)表于 12-14 10:34 ?164次閱讀

    人形機器人“天工”面向行業(yè)開源開放

    國家地方共建具身智能機器人創(chuàng)新中心昨天宣布啟動“天工開源計劃”,對外公布創(chuàng)新中心成立一年以來取得的建設(shè)成就。 創(chuàng)新中心陸續(xù)把本體、數(shù)據(jù)集、運動控制等方面的技術(shù)成果面向行業(yè)
    的頭像 發(fā)表于 11-13 15:19 ?378次閱讀

    AI引擎機器學(xué)習(xí)陣列指南

    AMD Versal AI Core 系列和 Versal AI Edge 系列旨在憑借 AI 引擎機器學(xué)習(xí) ( ML ) 架構(gòu)來提供突破性的 AI 推斷加速。這些器件的設(shè)計應(yīng)用范圍廣泛,包括用于
    的頭像 發(fā)表于 09-18 09:16 ?439次閱讀
    AI<b class='flag-5'>引擎</b><b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>陣列指南

    微軟OpenAI列為競爭對手名單

    微軟在其最新提交給美國證券交易委員會(SEC)的10-K文件中,正式OpenAI列入其競爭對手名單,這一名單中還包括了亞馬遜、谷歌和Meta等科技巨頭。此舉標(biāo)志著微軟對OpenAI在人工智能領(lǐng)域,特別是其ChatGPT聊天
    的頭像 發(fā)表于 08-05 11:38 ?643次閱讀

    微軟計劃在搜索引擎Bing中引入AI摘要功能

    近期,科技界傳來新動向,微軟緊隨百度與谷歌的步伐,宣布計劃在其搜索引擎Bing中引入先進(jìn)的AI摘要功能,旨在為用戶帶來更加智能、豐富的搜索體驗。
    的頭像 發(fā)表于 07-26 14:23 ?494次閱讀

    逐際動力攜手英偉達(dá)Isaac平臺, 助力通用機器人研發(fā)

    在近日舉行的年度計算機視覺與模式識別會議(CVPR)上,英偉達(dá)發(fā)布了其最新版本的NVIDIA Isaac Sim。與此同時,逐際動力也宣布采用這一升級版的Isaac平臺,以強化學(xué)習(xí)
    的頭像 發(fā)表于 06-21 09:34 ?2448次閱讀

    SnapAI和機器學(xué)習(xí)引入Snapchat

    Snap首席執(zhí)行官伊萬·斯皮格近日宣布,公司加大投資力度,人工智能和機器學(xué)習(xí)技術(shù)深度引入其主打社交應(yīng)用Snapchat,以進(jìn)一步提升用戶
    的頭像 發(fā)表于 05-21 09:31 ?523次閱讀

    ONNX是什么?

    ONNX是什么?
    的頭像 發(fā)表于 05-15 09:49 ?1922次閱讀

    NVIDIA加速微軟最新的Phi-3 Mini開源語言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開源語言模型。TensorRT-LLM 是一個開源庫,用于優(yōu)化從 PC 到云端的
    的頭像 發(fā)表于 04-28 10:36 ?610次閱讀

    ONNX Runtime支持龍架構(gòu),AI推理生態(tài)再添新翼

    近日,備受矚目的AI推理框架開源社區(qū)ONNX Runtime宣布推出支持龍架構(gòu)的新版本1.17.0,這一里程碑式的更新意味著龍芯平臺上的AI推理應(yīng)用開發(fā)與部署
    的頭像 發(fā)表于 03-27 10:58 ?767次閱讀

    開放原子開源大賽—基于OpenHarmony的團結(jié)引擎應(yīng)用開發(fā)賽正式啟動!

    “基于OpenHarmony的團結(jié)引擎應(yīng)用開發(fā)賽”是開放原子全球開源大賽下開設(shè)的新興及應(yīng)用賽的賽題之一,本次賽題旨在鼓勵更多開發(fā)者基于OpenHarmony 4.x版本,使用Unity中國團結(jié)引擎
    發(fā)表于 03-13 10:45

    AI推理框架軟件ONNX Runtime正式支持龍架構(gòu)

    近日,知名AI推理框架開源社區(qū)ONNX Runtime正式發(fā)布支持龍架構(gòu)的版本1.17.0。
    的頭像 發(fā)表于 03-12 12:23 ?613次閱讀
    AI推理框架軟件<b class='flag-5'>ONNX</b> Runtime正式支持龍架構(gòu)

    微軟推出ONNX Runtime Web,利用WebGPU優(yōu)化瀏覽器機器學(xué)習(xí)性能

    作為微軟的 JavaScript 庫,ONNX Runtime Web 使得網(wǎng)絡(luò)開發(fā)者能在瀏覽器環(huán)境下部署機器學(xué)習(xí)模型,并提供多種硬件加速的后端支持。
    的頭像 發(fā)表于 03-05 14:23 ?1204次閱讀