人工智能的發(fā)展由算力、算法和數據推動,它可以使機器借助先進軟件和硬件,進行自主學習和獨立解決問題。人工智能研究領域也包括計算機科學的其他分支,如機器學習、神經網絡、深度學習等。在視頻監(jiān)控市場,現今應用最突出的人工智能技術是深度學習。
深度學習借助電子技術和軟件算法來模仿人腦功能。深度學習系統(tǒng)會不斷地從經驗中獲取知識,并像人類一樣,通過學習真實的聲音,圖像和其他感官信息來感知和識別周圍環(huán)境。
在這一過程當中,輸入到系統(tǒng)當中的聲音、圖像和其他信息被拆分成多層高度抽象的網絡,每一層都代表著一些特征或者標識符,比如邊緣、顏色、形狀和聲調。人工智能的高速發(fā)展推動了其在智能手機、醫(yī)療保健和汽車等多個行業(yè)的應用。 同樣,安防市場也越來越希望將人工智能應用落地,尤其是將深度學習算法應用在視頻監(jiān)控市場中。盡管深度學習并非新興事物,但直到2015年深度學習才取得了重大的突破,機器視覺識別的錯誤率被大大降低。 在機器視覺競賽中, ImageNet(一種用于視覺對象識別軟件研究的大型視覺數據庫)在分析圖像數據庫時首次成功突破了5%的人類平均錯誤率。深度學習如此快速的提升不僅是由于高級算法的發(fā)展,還因為基于多核圖形處理單元( GPU)而非傳統(tǒng)的中央處理單元( CPU)的新型的更新更快的硬件系統(tǒng)的開發(fā)。 這些新架構可以促使學習速度更快,結果更準確。因為與使用CPU方法相比,它們能夠更快地模擬出10到100倍的人腦神經元。
隨著視頻監(jiān)控系統(tǒng)中新基礎架構的演進,業(yè)界已認識到兩個主要趨勢-AI能力從數據中心(云)遷移到端,以及多種類型的數據從端側匯聚到云。
AI從云遷移到端側–混合AI解決方案
AI解決方案從一開始就已部署在數據中心或云中,并逐漸擴展到邊。這種發(fā)展取決于模型開發(fā)的過程和計算的動態(tài)性能。人工智能解決方案分為兩個階段-訓練和推理。訓練是指在多次迭代和大量訓練數據集上模擬神經網絡聚合達到所需精度的過程。因此,訓練神經網絡的計算量非常大。 由于訓練一個算法所需算力非常大, 基本上, 訓練僅在數據中心或云中進行。
當神經網絡被訓練得可以識別圖像和視頻的背景關系的時候,將其部署在推理設備上并將視頻流輸入。這個過程稱為推斷。 推理是一個正向傳播過程,可以通過神經網絡模型從新的輸入信息中獲取正確的結果。 當今市場上的大多數深度學習解決方案都包含某種GPU硬件。由于當前GPU硬件的功率要求較高,深度學習分析一度只能在云端或在深度學習服務器或錄像機上運行。 但是, 近年來,隨著基于ASIC的SoC的發(fā)展, 攝像頭也能夠運行AI推理算法。
因此,視頻分析既可以在現成的標準化分析服務器或錄像機上運行, 又可以嵌入到諸如網絡攝像頭和編碼器之類的視頻監(jiān)控端側設備中。
目前,主要有三種方法來部署AI解決方案。
部署在端側的AI攝像頭 - AI攝像頭生成的結構化數據通過網絡傳輸到服務器,用于例如面部圖像識別和車輛識別等基于場景的其他應用程序。但是,這種方法難以被廣泛采用的原因是AI攝相頭替換傳統(tǒng)攝像頭的成本相對較高。
此外, 端側AI攝像頭的算力限制也阻礙了廣泛應用。即使使用最新的ASIC芯片,許多端側設備也將無法同時運行多種算法。因此,僅靠端側設備很難實現規(guī)模效益。
部署在中心的AI解決方案 - 借助這種方法,無需更換傳統(tǒng)的攝像機便可將視頻流發(fā)送到分析服務器或錄像機或云端以進行集中處理。這使系統(tǒng)能夠為每個攝像頭視頻運行更多樣的分析,并將多路攝像頭聯動來運行不同的視頻分析。但是所有數據都需要被發(fā)送到數據中心, 而這種方法需要高帶寬支持。 數據中心必須能夠提供所有算力,這很大程度上意味著用戶為購買AI服務器和錄像機需要支付高昂成本。
云-邊-端基礎架構上分布的AI解決方案 - 這種混合方式可通過結合使用端側的智能攝像頭、 邊側集中式服務器和云中心, 來確保視頻分析的工作負載更加均衡。這意味著可以在攝像頭上運行一些分析,例如人群監(jiān)視、 計數和對象檢測,目的是節(jié)省帶寬并減輕后端的算力壓力??梢允褂霉δ芨鼜姶蟮募惺椒治鰜磉\行需要大算力的應用程序,例如人或車輛的特征提取以及對象搜索。
新技術推動多種類型的數據從端側匯聚到云
深度學習分析能夠將非結構化視頻和圖像轉換為結構化以及半結構化數據。數據通過云-邊-端基礎架構匯聚,從AI攝像頭開始,然后到邊緣側的服務器或錄像機,再到云數據中心。該過程由算法和算力實現, 需要強大的邏輯處理器、 圖形處理器、 內存和存儲的支持。
在端側,芯片組制造商和安防設備廠商正在將具有更高算力和更低功耗的處理器嵌入下一代智能攝像頭。目前具備1 TOPS算力的嵌入式SoC的智能攝像頭已經很普遍, 而一些高端攝像頭更采用了16 TOPS算力的芯片,這些高端攝像頭可以運行多種深度學習算法和應用程序。
有些高端AI攝像頭甚至可在一幀視頻中捕捉200多個面部圖像并對圖像進行結構化處理。 這種高度智能化的攝像頭會7X24小時不間斷的產生高碼率視頻圖像數據以及大規(guī)模結構化數據,并對這些數據進行實時存儲。
此外, 大量基于AI技術的上層應用顯著增加了用戶對視頻數據以及結構化數據的讀操作。 這需要存放這些數據的存儲器具備更高的順序和隨機讀寫性能,以及更大的本地存儲空間。因此,高性能大容量并且具有高P / E(寫入/擦除)周期的嵌入式閃存存儲器在端側的AI攝像頭中被越來越多的使用,例如e.MMC和UFS。
在后端,特別是“ CPU + GPU”架構最適合運行包括圖像識別在內的大量的深度學習任務。這種組合的流行,部分原因是GPU能夠執(zhí)行并行計算。當運行深度學習神經網絡時,該體系結構使其速度比通用CPU快得多。
而隨著越來越多的數據在包括錄像機和企業(yè)級存儲在內的后端存儲中被匯聚,需要更大的存儲支撐。具有更高容量的硬盤存儲陣列可在有限物理區(qū)域中提供更大的容量。由于疊瓦式磁記錄( SMR)技術的發(fā)展,使得最新一代3.5英寸硬盤的容量可以最高達到20TB。
疊瓦式硬盤通過將驅動器磁道部分彼此疊置(類似于屋頂上重疊的瓦片)來實現更大的容量,從而以較低的成本增加同一區(qū)域的存儲密度。這種方法可以在視頻監(jiān)控云中心中很好地發(fā)揮作用, 因為視頻數據流具有順序化存儲的特性,并且視頻云中海量歸檔的視頻都不會進行隨機寫操作。
為了提升在云端進行密集的AI計算的能力, 一些廠商開始在視頻監(jiān)控系統(tǒng)的AI計算中引入非易失性內存主機控制器接口( NVMe) 存儲, 即NVMe enterprise SSD。與傳統(tǒng)的SSD或HDD相比,這種類型的存儲可為AI計算訪問數據時主動提供更高的帶寬和更低的延遲, 并將這些數據存儲在距離計算最近的位置。這種方法可以使在大型數據集上進行實時分析成為可能。
此外,業(yè)界還引入了NVMe分區(qū)存儲( ZNS), 其在SSD上的工作方式與疊瓦式( SMR) HDD類似,能夠以較低的成本提供更大的存儲容量,并能更好地實現主機系統(tǒng)和ZNS SSD之間的協(xié)作, 合理的分配存儲的工作負載。盡管這項技術現今在SSD上落地仍處于初期階段,但它有潛力確保以更具性價比的方式使存儲系統(tǒng)更高效、 更穩(wěn)定、更持久地運行。
人工智能技術的協(xié)作與整合
人工智能和深度學習視頻分析現在正在影響新型的視頻監(jiān)控基礎架構, 即從端到邊再到云數據中心。 AI初創(chuàng)公司,半導體廠商與傳統(tǒng)的視頻監(jiān)控供應商已經建立了一個完整生態(tài)系統(tǒng)以提供從芯片到算法和應用程序的解決方案,推動AI技術的落地。
隨著成熟的AI加速器廠商不斷推動芯片算力的提升, AI初創(chuàng)公司正在積極開發(fā)算法,以確保AI發(fā)揮其全部潛力。此外,視頻監(jiān)控設備制造商和數據中心硬件提供商正在不斷探索將市面一流解決方案應用于其產品, 使最終用戶可以以合理的成本從支持AI的解決方案中受益。
另一方面,系統(tǒng)集成商和最終用戶正在尋找有效的方法,將具有一流的AI功能的視頻分析軟件與可靠的視頻監(jiān)控基礎架構相結合。AI解決方案的開發(fā)需要涉及科技界多方共同努力。 沒有一家企業(yè)可以獨自推動AI產業(yè)向前發(fā)展,因為AI硬件和軟件的開發(fā)非常耗時耗資,甚至對一些科技巨頭都是一項巨大的挑戰(zhàn)。由于AI的這個特點, 各廠商的AI技術的協(xié)作和整合是構建可持續(xù)視頻監(jiān)控生態(tài)系統(tǒng)的必要條件。
責任編輯:ct
評論
查看更多