0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

什么是 AI 計算?

NVIDIA英偉達 ? 來源:未知 ? 2023-04-01 01:40 ? 次閱讀

人工智能計算是機器學習系統(tǒng)和軟件所做的工作,它可以對海量的數(shù)據(jù)進行篩選,從中獲得有洞察的信息并生成新的能力。

算盤、六分儀、算尺和計算機等數(shù)學工具見證了人類的進步史。這些數(shù)學工具幫助人們往來貿(mào)易、征服大海,并提高了人們的認知與生活質量。 如今,人工智能(AI)計算成為了最新的數(shù)學工具,正推動著科學和工業(yè)的發(fā)展。

AI 計算的定義

AI 計算是一種計算機器學習算法的數(shù)學密集型流程,通常會使用加速系統(tǒng)和軟件,它可以從大量數(shù)據(jù)集中提取新的見解并在此過程中學習新能力。 我們?nèi)缃裆钤谝粋€數(shù)據(jù)時代,因此,AI 計算是這個時代的革命性技術,它能夠找到人類無法找到的規(guī)律。 例如,美國運通使用 AI 計算來檢測每年數(shù)十億次信用卡交易中的欺詐行為;醫(yī)生使用 AI 計算來尋找腫瘤,并在無數(shù)醫(yī)療影像中發(fā)現(xiàn)細微的異常情況。

AI 計算的三個步驟

在介紹眾多 AI 計算用例前,我們先來了解一下它是如何運作的。 首先,用戶(通常是數(shù)據(jù)科學家)需要整理和準備數(shù)據(jù)集,這個階段稱為提取/轉換/加載(ETL)。這項工作現(xiàn)在可以通過 Apache Spark 3.0 在 NVIDIA GPU 上加速進行。Apache Spark 是目前最流行的開源大數(shù)據(jù)挖掘引擎之一。 然后,數(shù)據(jù)科學家會選擇或設計最適合其應用的 AI 模型。 一些在開拓新領域或尋求競爭優(yōu)勢的公司會從頭開始設計并訓練自己的模型。這個過程除了需要一定的專業(yè)知識外,還可能需要一臺 AI 超級計算機和 NVIDIA 的幫助。 797277c0-cfea-11ed-bfe3-dac502259ad0.jpg機器學習運維(MLOps)更加詳細地描述了 AI 計算的三個主要步驟——ETL(最上面的一行)、訓練(右下)和推理(左下)。 許多公司選擇采用預訓練 AI 模型并根據(jù)其應用需求進行自定義。在提供軟件、服務和支持的門戶網(wǎng)站 NVIDIA NGC 上,有幾十種預訓練模型和定制工具可供使用。 最后,公司會通過他們的模型來篩選數(shù)據(jù)。這個關鍵步驟被稱為推理,AI 將會在這個步驟中提供可行的洞察與見解。 這三個步驟需要消耗很多精力,但好在每個人在各種幫助下都能夠使用 AI 計算。 例如,NVIDIA TAO 工具套件可以使用遷移學習將三個步驟簡化為一個,這種方法不需要大型數(shù)據(jù)集就能為新的應用定制現(xiàn)有的 AI 模型。除此之外,NVIDIA LaunchPad 還為用戶提供了各種模型部署用例的實踐培訓。

AI 模型的內(nèi)部構造

AI 模型被稱為神經(jīng)網(wǎng)絡,其靈感來自于人類大腦內(nèi)部的網(wǎng)狀構造。 這些 AI 模型展開后看起來就像是由多層線性代數(shù)方程組成的數(shù)學“千層面”。深度學習作為目前最流行的一種 AI 形式,得名就是因為它由許多這樣的‘層’組成。 799317dc-cfea-11ed-bfe3-dac502259ad0.jpg識別圖像的深度學習模型示例(選自美國國家科學院的一篇關于深度學習的文章,圖片來源:藝術家 Lucy Reading-Ikkanda) 進一步聚焦,你就會看到每一層都由眾多方程式堆棧組成,每個方程式都代表著一組數(shù)據(jù)相互關聯(lián)的可能性。 AI 計算將每一層中的每一個方程堆棧相聯(lián)系,以尋找規(guī)律。這是一項龐大的工程,需要高度并行的處理器在高速計算機網(wǎng)絡上共享大量數(shù)據(jù)。

GPU 計算與 AI 的結合

事實上,AI 計算的引擎是 GPU。 NVIDIA 于 1999 年推出了第一款 GPU,用于需要大規(guī)模并行計算的電子游戲 3D 圖像渲染。 GPU 計算很快被推廣到電影大片的圖形服務器中。科學家和研究者在世界上最大的超級計算機上使用 GPU,其可應用的研究范圍小到化學中的微小分子,大到天體物理學中的遙遠星系。 當 AI 計算在十多年前出現(xiàn)時,研究者很快就開始使用 NVIDIA 的可編程平臺運行并行處理。下面的視頻簡單回顧了 GPU 的歷史。

AI 計算的歷史

AI 這個概念至少可以追溯到艾倫·圖靈所在的時代,這位英國數(shù)學家在二戰(zhàn)期間幫助破解了密碼信息。 79db9b56-cfea-11ed-bfe3-dac502259ad0.jpg艾倫·圖靈 1947 年,圖靈在一次演講中說:“我們想要的是一臺能夠從經(jīng)驗中學習的機器?!?/span> NVIDIA 為了紀念他的遠見卓識,以他的名字命名了 NVIDIA 的一個計算架構。 圖靈的展望在 2012 年成為了現(xiàn)實。研究者在 2012 年開發(fā)出了能夠比人類更快、更精準識別圖像的 AI 模型。ImageNet 比賽的結果也大大加快了計算機視覺的發(fā)展。 今天,以機器學習界大咖 Andrew Ng 創(chuàng)立的 Landing AI 為代表,許多公司正在使用 AI 和計算機視覺提高制造業(yè)的效率,與此同時,AI 也在為體育、智慧城市等領域帶來更接近真人的視角與思維方式。

AI 計算開啟對話式 AI

2017 年 Transformer 模型面世后,AI 計算在自然語言處理方面獲得了巨大的進步,出現(xiàn)了一種名為“attention”的機器學習技術。它可以捕捉如文本、語音等連續(xù)數(shù)據(jù)中的上下文。 如今,對話式 AI 已十分普遍。它可以解析用戶在搜索框中輸入的句子,也可以在用戶開車時讀出短信并讓你口述回復。 這些大型語言模型還被應用于藥物研發(fā)、翻譯、聊天機器人、軟件開發(fā)、呼叫中心自動化等眾多領域。

AI+圖形:創(chuàng)造 3D 世界

許多意想不到的領域的用戶正在體驗 AI 計算的力量。 最新的電子游戲憑借著實時光線追蹤與 NVIDIA DLSS 將畫面真實性提高到了更高級別。后者利用 AI 在 GeForce RTX 平臺上為用戶提供了超流暢的游戲體驗。 這僅僅是個開始。新興的神經(jīng)圖形學將加速虛擬世界的創(chuàng)建,以填充 3D 互聯(lián)網(wǎng)與元宇宙。 79f8953a-cfea-11ed-bfe3-dac502259ad0.jpg神經(jīng)圖形學將加速虛擬世界的設計和開發(fā),填充 3D 互聯(lián)網(wǎng)與元宇宙

AI 計算用例

汽車、工廠和倉庫 汽車制造商正在運用 AI 計算以提供更加平穩(wěn)、安全的駕駛體驗,并為乘客提供智能化車載信息娛樂功能。 梅賽德斯-奔馳正在與 NVIDIA 聯(lián)手開發(fā)軟件定義汽車。該公司即將推出的車型將提供由 NVIDIA DRIVE Orin 中央計算機驅動的智能和自動駕駛功能。這些系統(tǒng)將在數(shù)據(jù)中心使用建立在 NVIDIA Omniverse 基礎上的 DRIVE Sim 軟件進行測試和驗證,以確保它們能夠安全應對各類場景。 梅賽德斯-奔馳在 CES 上宣布,它還將使用 Omniverse 設計并規(guī)劃其全球各地的制造和裝配設施。 許多公司通過在 NVIDIA Omniverse 中創(chuàng)建 AI 數(shù)字孿生工廠來提高工廠的效率,寶馬集團也是其中之一。如下視頻所示,百事可樂等消費業(yè)巨頭也為其物流中心采用了這種方法。 工廠和倉庫內(nèi)的自主機器人進一步提高了制造業(yè)和物流業(yè)的效率。許多機器人由 NVIDIA Jetson 邊緣 AI 平臺驅動,并通過 NVIDIA Isaac Sim 在模擬和數(shù)字孿生中使用 AI 進行訓練。 過去一年里,就連拖拉機和割草機都通過 AI 實現(xiàn)了自主運行。 位于加州利弗莫爾的初創(chuàng)企業(yè) Monarch Tractor 在去年 12 月推出了一款 AI 驅動的電動車,促進了農(nóng)業(yè)的自動化;位于科羅拉多州博爾德的 Scythe 于去年 5 月推出了一款裝有八個攝像頭和十多個傳感器的自主電動割草機 M.52(如下視頻所示)。 @2023 Scythe Robotics版權歸Scythe Robotics 所有
此視頻由ScytheRobotics制作,如果您有任何疑問或需要使用此視頻,請聯(lián)系ScytheRobotics
保護網(wǎng)絡安全,檢測基因序列 AI 計算用例的數(shù)量和種類十分驚人。 網(wǎng)絡安全軟件在數(shù)字指紋等 AI 技術幫助下更快檢測出網(wǎng)絡釣魚和其他網(wǎng)絡威脅。 醫(yī)療領域的研究者們在 2022 年 1 月依靠 AI 計算在 8 小時內(nèi)完成了整個基因組的測序,打破了紀錄。其研究成果(如下視頻所述)有可能治愈罕見遺傳病。 AI 計算還被應用在銀行、零售、郵局、電信、交通運輸和能源網(wǎng)絡等多個領域。 如今,AI 計算技術不斷開拓新應用,研究者正在開發(fā)更新、更強大的方法。 過去一年中,另一種強大的神經(jīng)網(wǎng)絡——擴散模型開始流行。這種模型可以將文字描述轉換成精美的圖像。研究者預測這些模型的應用將進一步拓展 AI 計算的版圖。

掃描海報二維碼,或點擊“閱讀原文”,即可觀看 NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛 GTC23 主題演講重播!


原文標題:什么是 AI 計算?

文章出處:【微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英偉達
    +關注

    關注

    22

    文章

    3821

    瀏覽量

    91512

原文標題:什么是 AI 計算?

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    AI計算釋放空間

    無論是移動應用程序或數(shù)字商務等可見應用程序,還是航空公司定價算法或每次刷卡時激活的欺詐檢測系統(tǒng)等幕后流程,AI 都已成為我們?nèi)粘I钪胁豢苫蛉钡囊徊糠?。尤其是生成?AI,預計未來十年將以兩位數(shù)
    的頭像 發(fā)表于 11-21 09:19 ?269次閱讀
    為<b class='flag-5'>AI</b><b class='flag-5'>計算</b>釋放空間

    華迅光通AI計算加速800G光模塊部署

    ChatGPT引爆的AI大模型市場,數(shù)據(jù)中心的東西流量和內(nèi)部服務器流量比例增加。 更新數(shù)據(jù)中心拓撲結構 數(shù)據(jù)中心計算規(guī)模和東西向流量不斷擴大,數(shù)據(jù)中心網(wǎng)絡架構也在不斷變化。在傳統(tǒng)的三層拓撲結構中
    發(fā)表于 11-13 10:16

    美國老化電網(wǎng)已無法負荷AI計算

    外媒《華盛頓郵報》刊發(fā)的美國麻省理工學院學者丹妮拉·魯斯與前美國能源部分析學者尼科·恩里克斯聯(lián)合署名文章,表達了對于美國老化電網(wǎng)已無法負荷AI計算的擔心。 文章稱因為AI的爆發(fā)使得人工智能系統(tǒng)耗電量
    的頭像 發(fā)表于 09-26 11:37 ?804次閱讀

    顯存技術不斷升級,AI計算中如何選擇合適的顯存

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)顯存,是顯卡上用于存儲圖像數(shù)據(jù)、紋理、幀緩沖區(qū)等的內(nèi)存。它的大小直接決定了顯卡能夠同時處理的數(shù)據(jù)量。 ? 在AI計算中,顯存的大小對處理大規(guī)模數(shù)據(jù)集、深度學習模型的訓練
    的頭像 發(fā)表于 09-11 00:11 ?3182次閱讀

    3D DRAM內(nèi)嵌AI芯片,AI計算性能暴增

    當前高帶寬內(nèi)存(HBM)中的DRAM芯片,通過在3D DRAM中實現(xiàn)AI處理來解決數(shù)據(jù)總線問題。 ? 通常來說,當前的 AI芯片架構將數(shù)據(jù)存儲在高帶寬內(nèi)存中,并通過數(shù)據(jù)總線將數(shù)據(jù)傳輸?shù)?GPU 以執(zhí)行 AI算法(數(shù)學
    的頭像 發(fā)表于 08-16 00:08 ?3291次閱讀
    3D DRAM內(nèi)嵌<b class='flag-5'>AI</b>芯片,<b class='flag-5'>AI</b><b class='flag-5'>計算</b>性能暴增

    從TPU v1到Trillium TPU,蘋果等科技公司使用谷歌TPU進行AI計算

    ,在訓練尖端人工智能方面,大型科技公司正在尋找英偉達以外的替代品。 ? 不斷迭代的谷歌TPU 芯片 ? 隨著機器學習算法,特別是深度學習算法在各個領域的廣泛應用,對于高效、低功耗的AI計算硬件需求日益增長。傳統(tǒng)的CPU和GPU在處理這些算法時存在效率較低的問
    的頭像 發(fā)表于 07-31 01:08 ?3410次閱讀

    英偉達H200芯片量產(chǎn)在即,引領AI計算新時代

    在科技日新月異的今天,每一次技術的飛躍都預示著行業(yè)格局的深刻變革。7月3日,臺灣媒體《工商時報》傳來重磅消息,英偉達(NVIDIA)的旗艦級AI計算產(chǎn)品——H200,已在二季度末正式邁入量產(chǎn)階段
    的頭像 發(fā)表于 07-03 16:22 ?759次閱讀

    MWCS 2024 | 廣和通榮獲邊緣AI計算最佳創(chuàng)新方案

    2024世界移動通信大會·上海(MWCS 2024)期間,廣和通端側AI解決方案憑借卓越特性與極具潛力的商業(yè)價值斬獲2024信息通信業(yè)“新質推薦”——邊緣AI計算最佳創(chuàng)新方案,充分展現(xiàn)了廣和通在
    的頭像 發(fā)表于 06-28 18:22 ?350次閱讀
    MWCS 2024 | 廣和通榮獲邊緣<b class='flag-5'>AI</b><b class='flag-5'>計算</b>最佳創(chuàng)新方案

    MWCS 2024 廣和通榮獲邊緣AI計算最佳創(chuàng)新方案

    2024世界移動通信大會·上海(MWCS 2024)期間,廣和通端側AI解決方案憑借卓越特性與極具潛力的商業(yè)價值斬獲2024信息通信業(yè)“新質推薦”——邊緣AI計算最佳創(chuàng)新方案,充分展現(xiàn)了廣和通在
    的頭像 發(fā)表于 06-28 18:21 ?889次閱讀
    MWCS 2024  廣和通榮獲邊緣<b class='flag-5'>AI</b><b class='flag-5'>計算</b>最佳創(chuàng)新方案

    廣和通端側AI解決方案榮膺MWCS 2024邊緣AI計算最佳創(chuàng)新獎

    在近日舉行的2024世界移動通信大會·上海(MWCS 2024)上,廣和通憑借其卓越的端側AI解決方案榮獲2024信息通信業(yè)“新質推薦”——邊緣AI計算最佳創(chuàng)新方案獎。這一榮譽不僅彰顯了廣和通在
    的頭像 發(fā)表于 06-28 15:44 ?792次閱讀

    日本Sakura互聯(lián)網(wǎng)投資英偉達B200芯片 助力AI計算及數(shù)據(jù)中心發(fā)展

    位于大阪的Sakura公司預計將在明年3月起使用這些新購置的AI芯片,并在其位于北海道的工廠內(nèi)為有需求的企業(yè)提供強大的計算能力。此外,該公司還計劃在未來十年內(nèi),在AI計算能力及數(shù)據(jù)中心
    的頭像 發(fā)表于 04-19 15:13 ?671次閱讀

    NVIDIA InfiniBand和UFM平臺賦能高性能AI計算

    在數(shù)據(jù)驅動的時代,AI網(wǎng)絡解決方案需要在保障數(shù)據(jù)安全的前提下,實現(xiàn)對龐大數(shù)據(jù)流的快速處理和對復雜AI模型的高效訓練與推理。
    的頭像 發(fā)表于 03-27 13:49 ?1094次閱讀

    AMD AI PC創(chuàng)新峰會圓滿落幕,攜手中國伙伴共拓AI計算新篇章

    近日,AMD成功舉辦了備受矚目的AI PC創(chuàng)新峰會,向業(yè)界展示了其在中國AI PC生態(tài)系統(tǒng)中的蓬勃發(fā)展態(tài)勢,并致力于將前沿的AI計算能力帶給廣大消費者。
    的頭像 發(fā)表于 03-25 11:11 ?590次閱讀

    FPGA的力量:2024年AI計算領域的黑馬?

    隨著人工智能(AI)的快速發(fā)展,其對計算能力的需求也在持續(xù)增長。傳統(tǒng)的中央處理器(CPU)和圖形處理器(GPU)雖然在AI計算中占據(jù)主導地位,但面對日益增長的數(shù)據(jù)量和
    的頭像 發(fā)表于 03-07 09:37 ?955次閱讀
    FPGA的力量:2024年<b class='flag-5'>AI</b><b class='flag-5'>計算</b>領域的黑馬?

    AI計算,為什么要用GPU?

    芯片、存儲芯片以及微控制單元(MCU)。存儲芯片和MCU以后再介紹,今天小棗君重點講講邏輯芯片。邏輯芯片,其實說白了就是計算芯片。它包含了各種邏輯門電路,可以實現(xiàn)
    的頭像 發(fā)表于 01-26 08:29 ?573次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>計算</b>,為什么要用GPU?