機器學(xué)習(xí)是大多數(shù)AI應(yīng)用的核心,負(fù)責(zé)教計算機學(xué)會識別數(shù)據(jù)中的模式。更具體地來說,其目標(biāo)就是創(chuàng)建訓(xùn)練有素的模型。這可以通過監(jiān)督學(xué)習(xí)來完成,這種學(xué)習(xí)方式向計算機提供學(xué)習(xí)實例。另外,這個過程也可以不受監(jiān)督——計算機只是在數(shù)據(jù)中尋找其關(guān)心的模式。還有涉及連續(xù)學(xué)習(xí)或持續(xù)學(xué)習(xí)的技術(shù),這些技術(shù)可以使計算機從錯誤中吸取教訓(xùn),但這些不在本文討論范圍之內(nèi)。
運行您的ML模型
一旦建成了ML模型,便可以將其應(yīng)用于手頭的工作。模型可用于預(yù)測未來事件、識別異常,以及進行圖像或語音識別。幾乎在所有情況下,模型都依賴于大型深層樹狀結(jié)構(gòu),并且需要大量的算力才能運行。對于通常基于人工神經(jīng)網(wǎng)絡(luò)進行圖像和語音識別的模型而言尤其如此。神經(jīng)網(wǎng)絡(luò)創(chuàng)建稠密網(wǎng)格,因此需要在高度并行化的硬件(通?;?a href="http://wenjunhu.com/tags/gpu/" target="_blank">GPU)上運行。直到最近,也只有AWS或Azure等云服務(wù)提供商才有實力提供此類功能。
為了讓您對所需的算力有個概念,下表列示了AWS P3實例的規(guī)格,這是一個針對ML應(yīng)用進行了優(yōu)化的處理平臺
類型 | GPU | vCPU | RAM | GPU RAM | 存儲BW | 網(wǎng)絡(luò)BW |
P3.2XL | 1 | 8 | 61GB | 16GB | 1.5Gbps | ~10Gbps |
P3.8XL | 4 | 32 | 244GB | 64GB | 7Gbps | 10Gbps |
P3.16XL | 8 | 64 | 488GB | 128GB | 14Gbps | 25Gbps |
P3.24XL | 8 | 96 | 768GB | 256GB | 19Gbps | 100Gbps |
表1:AWS P3實例規(guī)格
這些都是頂配機型。它們具備大容量RAM,以及極快的網(wǎng)絡(luò)和存儲訪問權(quán)限。最重要的是,它們具有強大的CPU和GPU處理能力,正是這一要求使ML模型在網(wǎng)絡(luò)邊緣運行成為了真正的挑戰(zhàn)。
集中式AI的缺點
目前為止,由于ML模型難以在網(wǎng)絡(luò)邊緣運行,因此大多數(shù)最著名的AI應(yīng)用都依賴于云。但是,這種對云計算的依賴給AI的使用帶來了一些限制。下面列出了集中式AI在運行方面的一些缺陷。
有些應(yīng)用無法在云端運行
為了在云端運行AI,需要有容量足夠的可靠網(wǎng)絡(luò)連接。如果沒有這種條件,則可能由于缺乏基礎(chǔ)設(shè)施,有些AI應(yīng)用不得不在本地運行。換言之,只有能夠在邊緣運行ML模型,這些應(yīng)用才能正常工作。
以自動駕駛汽車為例。它需要完成許多依賴于機器學(xué)習(xí)的任務(wù)。這些任務(wù)中最重要的是探測和規(guī)避物體。這要求ML模型要有相當(dāng)大的算力。但是,即使是聯(lián)網(wǎng)汽車也只有較低的連接帶寬,這些連接還并不一致(盡管5G可能會改善這一點)。
在為采礦和其他重工業(yè)創(chuàng)建智能物聯(lián)網(wǎng)監(jiān)控系統(tǒng)時,同樣存在這種限制。通常在本地會有快速網(wǎng)絡(luò),但是互聯(lián)網(wǎng)連接可能會依賴于衛(wèi)星上行鏈路。
延遲是關(guān)鍵
許多ML應(yīng)用需要實時工作。上面提到的自動駕駛汽車就是此類應(yīng)用,另外還有實時面部識別等應(yīng)用。它可以用于門禁系統(tǒng)或安保措施;例如,警察經(jīng)常使用這項技術(shù)監(jiān)視體育賽事和其他活動中的人群,以找出已知的鬧事者。
AI也越來越多地用于打造智能醫(yī)療設(shè)備。其中一些需要實時工作才能發(fā)揮真正的作用,但是連接到數(shù)據(jù)中心的平均往返時間約在10到100毫秒之間。因此,如果不將ML模型轉(zhuǎn)移到網(wǎng)絡(luò)邊緣,就很難實現(xiàn)實時應(yīng)用。
安全性可能會成為問題
許多ML應(yīng)用會處理安全數(shù)據(jù)或敏感數(shù)據(jù)。顯然,這類數(shù)據(jù)可以通過網(wǎng)絡(luò)發(fā)送,并被安全存儲到云端。但是,當(dāng)?shù)卣咄ǔ=惯@樣做。健康數(shù)據(jù)尤其敏感,許多國家對發(fā)送到云服務(wù)器這一做法有著嚴(yán)格的法規(guī)要求??傊?,確保僅連接到本地網(wǎng)絡(luò)的設(shè)備的安全性永遠(yuǎn)更加容易。
成本
訂購ML優(yōu)化的云實例可能會非常昂貴 - 表1中所示的最低規(guī)格實例每小時花費約3美元。許多云提供商會收取額外的費用,例如用于存儲和網(wǎng)絡(luò)訪問的費用,這筆費用也要考慮在內(nèi)。實際上,運行一個AI應(yīng)用每月可能要花費高達(dá)3,000美元。
結(jié)論
實現(xiàn)成功的機器學(xué)習(xí)通常需要具有強大算力的基于云或服務(wù)器的資源。但是,隨著應(yīng)用的發(fā)展和新用例的出現(xiàn),將機器學(xué)習(xí)轉(zhuǎn)移到網(wǎng)絡(luò)邊緣變得更加引人注目,尤其是在需要優(yōu)先考慮延遲、安全性和實現(xiàn)成本等因素的情況下。
審核編輯:郭婷
-
服務(wù)器
+關(guān)注
關(guān)注
12文章
9204瀏覽量
85548 -
機器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8422瀏覽量
132724 -
自動駕駛
+關(guān)注
關(guān)注
784文章
13838瀏覽量
166538
發(fā)布評論請先 登錄
相關(guān)推薦
評論