0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

智能ai行為分析監(jiān)控 YOLOv5

燧機(jī)科技 ? 2024-07-04 20:43 ? 次閱讀

智能ai行為分析監(jiān)控技術(shù)應(yīng)用是人工智能科學(xué)研究的一個(gè)支系。它可以在監(jiān)控規(guī)則和現(xiàn)場(chǎng)畫面具體內(nèi)容敘述中間創(chuàng)建投射關(guān)聯(lián),智能ai行為分析監(jiān)控分析以分析和識(shí)別為基本,隨后利用視覺算法實(shí)際操作技術(shù)水平對(duì)監(jiān)控畫面開展鑒別、追蹤和檢測(cè)。大家可以根據(jù)提取視頻中的核心信息內(nèi)容,標(biāo)識(shí)或解決監(jiān)控視頻畫面中的核心信息內(nèi)容,產(chǎn)生相對(duì)應(yīng)的事情和警報(bào)監(jiān)控方式,根據(jù)ai監(jiān)控視頻優(yōu)化算法迅速檢測(cè)視頻畫面內(nèi)容。

YOLOv5中在訓(xùn)練模型階段仍然使用了Mosaic數(shù)據(jù)增強(qiáng)方法,該算法是在CutMix數(shù)據(jù)增強(qiáng)方法的基礎(chǔ)上改進(jìn)而來的。CutMix僅僅利用了兩張圖片進(jìn)行拼接,而Mosaic數(shù)據(jù)增強(qiáng)方法則采用了4張圖片,并且按照隨機(jī)縮放、隨機(jī)裁剪和隨機(jī)排布的方式進(jìn)行拼接而成。這種增強(qiáng)方法可以將幾張圖片組合成一張,這樣不僅可以豐富數(shù)據(jù)集的同時(shí)極大的提升網(wǎng)絡(luò)的訓(xùn)練速度,而且可以降低模型的內(nèi)存需求。

wKgaomaFZQ-ADG5jAADgocOuobQ207.png

假如監(jiān)控終端被視作我們的雙眼,而ai智能視頻分析系統(tǒng)軟件可以被解釋為人的大腦,那麼智能視頻分析技術(shù)可以運(yùn)用CPU的強(qiáng)勁運(yùn)算優(yōu)勢(shì),快速分析監(jiān)控視頻畫面中的很多數(shù)據(jù)信息,并得到大家所需的信息內(nèi)容。AI視頻行為鑒別監(jiān)控系統(tǒng)軟件是新一代的監(jiān)控視頻分析技術(shù),也是AI人工智能技術(shù)在安全領(lǐng)域運(yùn)用的終極技術(shù)性提升。該技術(shù)性突破了傳統(tǒng)式的技術(shù)性阻礙。它是依據(jù)人們的軌跡,身體的具體主題活動(dòng)框架,界定各種各樣出現(xiàn)異常行為,產(chǎn)生深度神經(jīng)網(wǎng)絡(luò)的運(yùn)動(dòng)系統(tǒng)。

wKgZomaGmJCAap5cAAI9TJu3Qo4261.png

def forward(self, x): # x = x.copy() # for profiling z = [] # inference output self.training |= self.export for i in range(self.nl): x[i] = self.m[i](x[i]) # conv bs, _, ny, nx = x[i].shape # x(bs,255,20,20) to x(bs,3,20,20,85) x[i] = x[i].view(bs, self.na, self.no, ny, nx).permute(0, 1, 3, 4, 2).contiguous() if not self.training: # inference if self.grid[i].shape[2:4] != x[i].shape[2:4]: self.grid[i] = self._make_grid(nx, ny).to(x[i].device) y = x[i].sigmoid() y[..., 0:2] = (y[..., 0:2] * 2. - 0.5 + self.grid[i].to(x[i].device)) * self.stride[i] # xy y[..., 2:4] = (y[..., 2:4] * 2) ** 2 * self.anchor_grid[i] # wh z.append(y.view(bs, -1, self.no)) return x if self.training else (torch.cat(z, 1), x) @staticmethod def _make_grid(nx=20, ny=20): yv, xv = torch.meshgrid([torch.arange(ny), torch.arange(nx)]) return torch.stack((xv, yv), 2).view((1, 1, ny, nx, 2)).float()

ai智能視頻分析系統(tǒng)走出了對(duì)情景的依靠。技術(shù)性的核心內(nèi)容是分析大家在情景中的行為。當(dāng)我們的行為不符合規(guī)則標(biāo)準(zhǔn)時(shí),警示數(shù)據(jù)信號(hào)便會(huì)馬上產(chǎn)生。ai智能視頻分析系統(tǒng)放棄了傳統(tǒng)式的挪動(dòng)檢驗(yàn)和分析技術(shù)性,不用逐幀識(shí)別圖像,更別說各種各樣混和線技術(shù)性來限定標(biāo)準(zhǔn),大大減少了移動(dòng)無損檢測(cè)技術(shù)的錯(cuò)誤提示,乃至很多標(biāo)準(zhǔn)還可以完成零錯(cuò)誤提示。與此同時(shí),它也大大減少了硬件平臺(tái)的耗費(fèi),進(jìn)一步提高了算法硬件的配置的綜合性鑒別工作能力。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 行為分析
    +關(guān)注

    關(guān)注

    0

    文章

    36

    瀏覽量

    1926
  • 人工智能算法
    +關(guān)注

    關(guān)注

    0

    文章

    62

    瀏覽量

    5516
  • 視頻圖像識(shí)別
    +關(guān)注

    關(guān)注

    0

    文章

    8

    瀏覽量

    2043
收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    在K230上部署yolov5時(shí) 出現(xiàn)the array is too big的原因?

    重現(xiàn)步驟 1將yolov5的kmodel放入k230的data數(shù)據(jù) 2使用yolo大作戰(zhàn)里的視頻流推理代碼 3運(yùn)行 期待結(jié)果和實(shí)際結(jié)果 期待的結(jié)果 將目標(biāo)檢測(cè)的框圈起來 實(shí)際看到的結(jié)果
    發(fā)表于 05-28 07:47

    RV1126 yolov8訓(xùn)練部署教程

    YOLOv8 是 ultralytics 公司在 2023 年 1月 10 號(hào)開源的基于YOLOV5進(jìn)行更新的 下一個(gè)重大更新版本,目前支持圖像分類、物體檢測(cè)和實(shí)例分割任務(wù),鑒于Yolov5的良好表現(xiàn),
    的頭像 發(fā)表于 04-16 14:53 ?381次閱讀
    RV1126 <b class='flag-5'>yolov</b>8訓(xùn)練部署教程

    請(qǐng)問如何在imx8mplus上部署和運(yùn)行YOLOv5訓(xùn)練的模型?

    我正在從事 imx8mplus yocto 項(xiàng)目。我已經(jīng)在自定義數(shù)據(jù)集上的 YOLOv5 上訓(xùn)練了對(duì)象檢測(cè)模型。它在 ubuntu 電腦上運(yùn)行良好?,F(xiàn)在我想在我的 imx8mplus 板上運(yùn)行該模型
    發(fā)表于 03-25 07:23

    YOLOv5類中rgb888p_size這個(gè)參數(shù)要與模型推理和訓(xùn)練的尺寸一致嗎?一致會(huì)達(dá)到更好的效果?

    YOLOv5類中rgb888p_size這個(gè)參數(shù)要與模型推理和訓(xùn)練的尺寸一致嗎,一致會(huì)達(dá)到更好的效果
    發(fā)表于 03-11 08:12

    yolov5轉(zhuǎn)onnx在cubeAI進(jìn)行部署,部署失敗的原因?

    第一個(gè)我是轉(zhuǎn)onnx時(shí) 想把權(quán)重文件變小點(diǎn) 就用了半精度 --half,則說17版本不支持半精度 后面則是沒有縮小的單精度 但是顯示哪里溢出了···· 也不說是哪里、、。。。 到底能不能部署yolov5這種東西啊?? 也沒看見幾個(gè)部署在這上面......................
    發(fā)表于 03-07 11:38

    【米爾RK3576開發(fā)板評(píng)測(cè)】+項(xiàng)目名稱YOLOV5目標(biāo)檢測(cè)

    /examples/yolov5/model ./download_model.sh 下載的是一個(gè)ONNX格式的神經(jīng)網(wǎng)絡(luò)模型,但發(fā)現(xiàn)它無法在瑞芯微系統(tǒng)中直接運(yùn)行。為了解決這個(gè)問題,您計(jì)劃使用特定
    發(fā)表于 02-15 13:24

    在RK3568教學(xué)實(shí)驗(yàn)箱上實(shí)現(xiàn)基于YOLOV5的算法物體識(shí)別案例詳解

    一、實(shí)驗(yàn)?zāi)康?本節(jié)視頻的目的是了解YOLOv5模型的用途及流程,并掌握基于YOLOV5算法實(shí)現(xiàn)物體識(shí)別的方法。 二、實(shí)驗(yàn)原理 YOLO(You Only Look Once?。?YOLOv5 是一種
    發(fā)表于 12-03 14:56

    高效識(shí)別,智能分析,訊維AI視頻行為分析系統(tǒng)開啟智慧監(jiān)控時(shí)代!

    識(shí)別分析技術(shù),研發(fā)出一套智能化的視頻分析系統(tǒng)——AI視頻行為分析系統(tǒng)。
    的頭像 發(fā)表于 11-15 15:26 ?1386次閱讀
    高效識(shí)別,<b class='flag-5'>智能</b><b class='flag-5'>分析</b>,訊維<b class='flag-5'>AI</b>視頻<b class='flag-5'>行為</b><b class='flag-5'>分析</b>系統(tǒng)開啟智慧<b class='flag-5'>監(jiān)控</b>時(shí)代!

    在樹莓派上部署YOLOv5進(jìn)行動(dòng)物目標(biāo)檢測(cè)的完整流程

    目標(biāo)檢測(cè)在計(jì)算機(jī)視覺領(lǐng)域中具有重要意義。YOLOv5(You Only Look One-level)是目標(biāo)檢測(cè)算法中的一種代表性方法,以其高效性和準(zhǔn)確性備受關(guān)注,并且在各種目標(biāo)檢測(cè)任務(wù)中都表現(xiàn)出
    的頭像 發(fā)表于 11-11 10:38 ?3509次閱讀
    在樹莓派上部署<b class='flag-5'>YOLOv5</b>進(jìn)行動(dòng)物目標(biāo)檢測(cè)的完整流程

    RK3588 技術(shù)分享 | 在Android系統(tǒng)中使用NPU實(shí)現(xiàn)Yolov5分類檢測(cè)

    : NPU幫助機(jī)器完成更高效的翻譯、文本分類和情感分析,推動(dòng)了自然語言處理技術(shù)的發(fā)展。 實(shí)例分享:Yolov5分類檢測(cè) 在RK3588處理器上,不僅可以基于Linux系統(tǒng)使用NPU,也可以
    發(fā)表于 10-24 10:13

    RK3588 技術(shù)分享 | 在Android系統(tǒng)中使用NPU實(shí)現(xiàn)Yolov5分類檢測(cè)-迅為電子

    RK3588 技術(shù)分享 | 在Android系統(tǒng)中使用NPU實(shí)現(xiàn)Yolov5分類檢測(cè)-迅為電子
    的頭像 發(fā)表于 08-23 14:58 ?1269次閱讀
    RK3588 技術(shù)分享 | 在Android系統(tǒng)中使用NPU實(shí)現(xiàn)<b class='flag-5'>Yolov5</b>分類檢測(cè)-迅為電子

    RK3588 技術(shù)分享 | 在Android系統(tǒng)中使用NPU實(shí)現(xiàn)Yolov5分類檢測(cè)

    : NPU幫助機(jī)器完成更高效的翻譯、文本分類和情感分析,推動(dòng)了自然語言處理技術(shù)的發(fā)展。 實(shí)例分享:Yolov5分類檢測(cè) 在RK3588處理器上,不僅可以基于Linux系統(tǒng)使用NPU,也可以
    發(fā)表于 08-20 11:13

    基于迅為RK3588【RKNPU2項(xiàng)目實(shí)戰(zhàn)1】:YOLOV5實(shí)時(shí)目標(biāo)分類

    [/url] 【RKNPU2 人工智能開發(fā)】 【AI深度學(xué)習(xí)推理加速器】——RKNPU2 從入門到實(shí)踐(基于RK3588和RK3568) 【RKNPU2項(xiàng)目實(shí)戰(zhàn)1】:YOLOV5實(shí)時(shí)目標(biāo)分類 【RKNPU2項(xiàng)目實(shí)戰(zhàn)2】:SORT
    發(fā)表于 08-15 10:51

    平安校園視頻監(jiān)控方案 YOLOv5

    平安校園視頻監(jiān)控方案部署一臺(tái)SuiJi-AI100視頻分析服務(wù)器,平安校園視頻監(jiān)控方案使用校園視頻監(jiān)控智方案能
    的頭像 發(fā)表于 07-03 22:51 ?697次閱讀
    平安校園視頻<b class='flag-5'>監(jiān)控</b>方案 <b class='flag-5'>YOLOv5</b>

    YOLOv5的原理、結(jié)構(gòu)、特點(diǎn)和應(yīng)用

    YOLOv5(You Only Look Once version 5)是一種基于深度學(xué)習(xí)的實(shí)時(shí)目標(biāo)檢測(cè)算法,它屬于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的范疇。下面我將詳細(xì)介紹YOLOv5的原理、結(jié)構(gòu)、特點(diǎn)
    的頭像 發(fā)表于 07-03 09:23 ?1.1w次閱讀

    電子發(fā)燒友

    中國電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會(huì)員交流學(xué)習(xí)
    • 獲取您個(gè)性化的科技前沿技術(shù)信息
    • 參加活動(dòng)獲取豐厚的禮品