0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Two-i根據(jù)算法對(duì) NVIDIA 預(yù)訓(xùn)練模型進(jìn)行基準(zhǔn)測試

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 作者:NVIDIA英偉達(dá)企業(yè)解 ? 2021-12-15 09:43 ? 次閱讀

四年前,當(dāng) Julien Trombini 和 Guillaume Cazenave 創(chuàng)立視頻分析初創(chuàng)公司 Two-i 時(shí),他們有一個(gè)雄心勃勃的目標(biāo):有一天能夠監(jiān)控城市的道路、垃圾收集和其他公共服務(wù),從而提高城市生活質(zhì)量。

在創(chuàng)業(yè)的過程中,這對(duì)搭檔發(fā)現(xiàn)了一個(gè)完全不同的利基市場。今天,該公司結(jié)合了計(jì)算機(jī)視覺、數(shù)據(jù)科學(xué)和深度學(xué)習(xí)的技術(shù),正在幫助防止石油和天然氣行業(yè)發(fā)生致命事故,石油和天然氣行業(yè)是世界上最危險(xiǎn)的行業(yè)之一。

最初,Trombini 和 Cazenave 設(shè)想了一個(gè)系統(tǒng),使市政領(lǐng)導(dǎo)人能夠看到整個(gè)城市需要改進(jìn)的地方。

“這個(gè)系統(tǒng)就像是一張城市的氣象圖,我們制定了有效衡量的標(biāo)準(zhǔn)?!?Two-i 董事長 Trombini 說。Two-i 是 NVIDIA Metropolis 的合作伙伴,坐落于法國東北部歷史名城 Metz 。

事實(shí)證明,這是一項(xiàng)艱巨的任務(wù),因此兩人重新將重點(diǎn)放在了特定的設(shè)施上,如體育場、養(yǎng)老院和中轉(zhuǎn)站,在這些設(shè)施上,其技術(shù)有助于安全和事故檢測。例如,當(dāng)養(yǎng)老院的居民在走廊跌倒時(shí),或者當(dāng)使用輪椅的過境乘客因電梯損壞而無法登上火車時(shí),它可以提醒適當(dāng)?shù)穆?lián)系人。

最近,埃克森美孚與該公司接洽,希望幫助解決一個(gè)潛在的致命問題:提高開放式油罐周圍工人的安全。

Two-i 與這家能源巨頭一起創(chuàng)建了一個(gè)支持 AI 的視頻分析應(yīng)用程序,用于檢測個(gè)人何時(shí)接近危險(xiǎn)區(qū)域和跌倒風(fēng)險(xiǎn),并立即提醒其他人采取快速行動(dòng)。在最初幾個(gè)月的運(yùn)行中,視覺人工智能系統(tǒng)防止了兩起事故的發(fā)生。

雖然這個(gè)用例非常具體,但該公司的 AI 架構(gòu)旨在靈活支持許多不同的算法和功能。

“這些算法與我們用于不同客戶的算法完全相同,”Trombini 說?!斑@是相同的技術(shù),但包裝方式不同?!?/p>

充分利用視覺人工智能

Two-i 的靈活性源于它對(duì) NVIDIA Metropolis 平臺(tái)的依賴,該平臺(tái)可以用于支持 AI 的視頻分析應(yīng)用程序,利用先進(jìn)的工具并采用全棧方法。

因此,它也依賴于各種 NVIDIA 認(rèn)證系統(tǒng),使用基于高性能 NVIDIA Ampere 架構(gòu)的最新工作站和數(shù)據(jù)中心 GPU,用于訓(xùn)練和推理。為了進(jìn)一步縮短訓(xùn)練時(shí)間,Two-i 希望在強(qiáng)大的 NVIDIA A100 GPU 上測試其龐大的圖像數(shù)據(jù)集。

該公司希望經(jīng)常升級(jí)其 GPU,以確保為客戶提供盡可能快的解決方案,無論有多少攝像頭向其系統(tǒng)提供數(shù)據(jù)。

“我們可以節(jié)省的時(shí)間至關(guān)重要,硬件越好,結(jié)果就越準(zhǔn)確,我們就可以更快地進(jìn)入市場,”Trombini 說。

Two-i 利用 CUDA 11.1 工具包和 cuDNN 8.1 庫來支持其深度學(xué)習(xí)過程,并利用 NVIDIA TensorRT 來加速推理吞吐量。

Trombini 說 NVIDIA 技術(shù)中最引人注目的部分之一是 NVIDIA TAO 工具套件,它可以幫助公司在修補(bǔ)算法的同時(shí)降低成本。

“算法越重,成本就越高,”他說?!拔覀兪褂?TAO 工具套件來削減算法并使它們更適合任務(wù)?!?/p>

例如,使用 NVIDIA TAO 工具套件(一種基于 CLI 和 Jupyter Notebook 的 NVDIA 訓(xùn)練、適應(yīng)和優(yōu)化框架的人工智能模型適應(yīng)平臺(tái))將最初需要長達(dá)兩周的訓(xùn)練時(shí)間縮短為三天。

Two-i 還開始根據(jù)其算法對(duì) NVIDIA 的預(yù)訓(xùn)練模型進(jìn)行基準(zhǔn)測試,并開始使用 NVIDIA DeepStream SDK 來增強(qiáng)其視頻分析工作流程。

以成功為基礎(chǔ)

Two-i 將其在各種環(huán)境中解決復(fù)雜問題的能力(例如對(duì)于??松梨冢┮暈榛氐狡渥畛醯闹腔鄢鞘性妇暗奶濉?/p>

現(xiàn)在,Two-i 已經(jīng)監(jiān)控了八個(gè)歐洲城市的所有道路,分析交通流量并了解汽車的來源和去向。

Trombini 認(rèn)識(shí)到,為了實(shí)現(xiàn)公司的長期目標(biāo),Two-i 必須專注于實(shí)現(xiàn)一個(gè)又一個(gè)的效益。

“雖然進(jìn)展緩慢,但我們已經(jīng)開始實(shí)施我們的愿景。”Trombini 說。

原文標(biāo)題:為了追求智慧城市的愿景,初創(chuàng)公司Two-i將人工智能應(yīng)用于工人安全

文章出處:【微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

審核編輯:彭菁
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5087

    瀏覽量

    103948
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    31891

    瀏覽量

    270708
  • 人工智能
    +關(guān)注

    關(guān)注

    1797

    文章

    47899

    瀏覽量

    240918

原文標(biāo)題:為了追求智慧城市的愿景,初創(chuàng)公司Two-i將人工智能應(yīng)用于工人安全

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 0人收藏

    評(píng)論

    相關(guān)推薦

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗(yàn)】+大模型微調(diào)技術(shù)解讀

    集對(duì)模型進(jìn)行進(jìn)一步訓(xùn)練的過程。 大模型微調(diào)是利用預(yù)訓(xùn)練模型
    發(fā)表于 01-14 16:51

    什么是大模型、大模型是怎么訓(xùn)練出來的及大模型作用

    ,基礎(chǔ)模型。 ? 大模型是一個(gè)簡稱,完整的叫法,應(yīng)該是“人工智能預(yù)訓(xùn)練模型”。預(yù)
    的頭像 發(fā)表于 11-25 09:29 ?6468次閱讀
    什么是大<b class='flag-5'>模型</b>、大<b class='flag-5'>模型</b>是怎么<b class='flag-5'>訓(xùn)練</b>出來的及大<b class='flag-5'>模型</b>作用

    NVIDIA Isaac Sim滿足模型的多樣化訓(xùn)練需求

    光輪智能借助?NVIDIA Isaac Sim,通過 3D 生成與建模技術(shù)構(gòu)建高度逼真的虛擬場景,將現(xiàn)實(shí)世界的復(fù)雜場景抽象并轉(zhuǎn)化為高質(zhì)量的訓(xùn)練數(shù)據(jù)源,從而更有效地滿足模型的多樣化訓(xùn)練
    的頭像 發(fā)表于 11-23 14:55 ?660次閱讀

    直播預(yù)約 |數(shù)據(jù)智能系列講座第4期:預(yù)訓(xùn)練的基礎(chǔ)模型下的持續(xù)學(xué)習(xí)

    鷺島論壇數(shù)據(jù)智能系列講座第4期「預(yù)訓(xùn)練的基礎(chǔ)模型下的持續(xù)學(xué)習(xí)」10月30日(周三)20:00精彩開播期待與您云相聚,共襄學(xué)術(shù)盛宴!|直播信息報(bào)告題目預(yù)
    的頭像 發(fā)表于 10-18 08:09 ?300次閱讀
    直播預(yù)約 |數(shù)據(jù)智能系列講座第4期:<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>的基礎(chǔ)<b class='flag-5'>模型</b>下的持續(xù)學(xué)習(xí)

    NVIDIA Nemotron-4 340B模型幫助開發(fā)者生成合成訓(xùn)練數(shù)據(jù)

    Nemotron-4 340B 是針對(duì) NVIDIA NeMo 和 NVIDIA TensorRT-LLM 優(yōu)化的模型系列,該系列包含最先進(jìn)的指導(dǎo)和獎(jiǎng)勵(lì)模型,以及一個(gè)用于生成式 AI
    的頭像 發(fā)表于 09-06 14:59 ?407次閱讀
    <b class='flag-5'>NVIDIA</b> Nemotron-4 340B<b class='flag-5'>模型</b>幫助開發(fā)者生成合成<b class='flag-5'>訓(xùn)練</b>數(shù)據(jù)

    NVIDIA文本嵌入模型NV-Embed的精度基準(zhǔn)

    NVIDIA 的最新嵌入模型 NV-Embed —— 以 69.32 的分?jǐn)?shù)創(chuàng)下了嵌入準(zhǔn)確率的新紀(jì)錄海量文本嵌入基準(zhǔn)測試(MTEB)涵蓋 56 項(xiàng)嵌入任務(wù)。
    的頭像 發(fā)表于 08-23 16:54 ?2106次閱讀
    <b class='flag-5'>NVIDIA</b>文本嵌入<b class='flag-5'>模型</b>NV-Embed的精度<b class='flag-5'>基準(zhǔn)</b>

    蘋果揭示AI新動(dòng)向:Apple Intelligence模型在谷歌云端芯片上預(yù)訓(xùn)練

    蘋果公司在最新的技術(shù)論文中披露了一項(xiàng)重要信息,其全新的人工智能系統(tǒng)Apple Intelligence所依賴的模型并非傳統(tǒng)上大型科技公司首選的NVIDIA GPU,而是選擇了在谷歌設(shè)計(jì)的云端芯片上進(jìn)行
    的頭像 發(fā)表于 07-30 15:00 ?607次閱讀

    預(yù)訓(xùn)練和遷移學(xué)習(xí)的區(qū)別和聯(lián)系

    預(yù)訓(xùn)練和遷移學(xué)習(xí)是深度學(xué)習(xí)和機(jī)器學(xué)習(xí)領(lǐng)域中的兩個(gè)重要概念,它們在提高模型性能、減少訓(xùn)練時(shí)間和降低對(duì)數(shù)據(jù)量的需求方面發(fā)揮著關(guān)鍵作用。本文將從定義、原理、應(yīng)用、區(qū)別和聯(lián)系等方面詳細(xì)探討
    的頭像 發(fā)表于 07-11 10:12 ?1343次閱讀

    大語言模型預(yù)訓(xùn)練

    能力,逐漸成為NLP領(lǐng)域的研究熱點(diǎn)。大語言模型預(yù)訓(xùn)練是這一技術(shù)發(fā)展的關(guān)鍵步驟,它通過在海量無標(biāo)簽數(shù)據(jù)上進(jìn)行訓(xùn)練,使
    的頭像 發(fā)表于 07-11 10:11 ?592次閱讀

    預(yù)訓(xùn)練模型的基本原理和應(yīng)用

    訓(xùn)練好的模型,這些模型通常在某些通用任務(wù)上表現(xiàn)出色,并且可以作為后續(xù)特定任務(wù)的起點(diǎn),通過遷移學(xué)習(xí)或微調(diào)(Fine-tuning)等方式進(jìn)行適應(yīng)和優(yōu)化。以下是對(duì)
    的頭像 發(fā)表于 07-03 18:20 ?3280次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過程詳解

    深度學(xué)習(xí)模型訓(xùn)練是一個(gè)復(fù)雜且關(guān)鍵的過程,它涉及大量的數(shù)據(jù)、計(jì)算資源和精心設(shè)計(jì)的算法訓(xùn)練一個(gè)深度學(xué)習(xí)模型,本質(zhì)上是通過優(yōu)化
    的頭像 發(fā)表于 07-01 16:13 ?1614次閱讀

    大語言模型:原理與工程時(shí)間+小白初識(shí)大語言模型

    的分布式表示,基于預(yù)訓(xùn)練的詞嵌入表示。 獨(dú)熱表示就是在一個(gè)大的向量空間中,其中一個(gè)位1,其余都為0,這樣就會(huì)變成單獨(dú)的。 詞的分布式表示:根據(jù)上下文進(jìn)行推斷語義。 基于
    發(fā)表于 05-12 23:57

    【大語言模型:原理與工程實(shí)踐】大語言模型預(yù)訓(xùn)練

    如此卓越的性能,就是通過其核心能力對(duì)海量數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,再進(jìn)行微調(diào)或?qū)ζ涫裁葱透玫?b class='flag-5'>根據(jù)人類的指令和偏好,發(fā)揮這些性能。隨著語言
    發(fā)表于 05-07 17:10

    【大語言模型:原理與工程實(shí)踐】大語言模型的基礎(chǔ)技術(shù)

    就無法修改,因此難以靈活應(yīng)用于下游文本的挖掘中。 詞嵌入表示:將每個(gè)詞映射為一個(gè)低維稠密的實(shí)值向量。不同的是,基于預(yù)訓(xùn)練的詞嵌入表示先在語料庫中利用某種語言模型進(jìn)行
    發(fā)表于 05-05 12:17

    【大語言模型:原理與工程實(shí)踐】核心技術(shù)綜述

    預(yù)訓(xùn)練和微調(diào),直到模型的部署和性能評(píng)估。以下是對(duì)這些技術(shù)的綜述: 模型架構(gòu): LLMs通常采用深層的神經(jīng)網(wǎng)絡(luò)架構(gòu),最常見的是Transformer網(wǎng)絡(luò),它包含多個(gè)自注意力層,能夠捕
    發(fā)表于 05-05 10:56

    電子發(fā)燒友

    中國電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會(huì)員交流學(xué)習(xí)
    • 獲取您個(gè)性化的科技前沿技術(shù)信息
    • 參加活動(dòng)獲取豐厚的禮品