0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

圍繞計算機視覺領域的八大任務,進行了較為詳細的綜述

電子工程師 ? 來源:lp ? 2019-04-01 10:16 ? 次閱讀

編者按:

來自百度的深度學習工程師,圍繞計算機視覺領域的八大任務,包括:圖像分類、目標檢測、圖像語義分割、場景文字識別、圖像生成、人體關鍵點檢測、視頻分類、度量學習等,進行了較為詳細的綜述并形成此文。

這篇綜述中,介紹了這些任務的基本情況,以及目前的技術進展、主要的模型和性能對比等。而且還逐一附上了GitHub傳送門,用于更進一步的學習與安裝實踐指南。其中不少教程還是用中文寫成,非常友好。

總之,這篇綜述全程干貨,推薦收藏閱讀。

上篇

計算機視覺(Computer Vision)是研究如何使機器“看”的科學,更進一步的說,是使用攝像機機和電腦代替人眼對目標進行識別、跟蹤和測量等的機器視覺,并通過電腦處理成為更適合人眼觀察或傳送給儀器檢測的圖像。

形象地說,就是給計算機安裝上眼睛(攝像機)和大腦(算法),讓計算機像人一樣去看、去感知環(huán)境。計算機視覺技術作為人工智能的重要核心技術之一,已廣泛應用于安防、金融、硬件、營銷、駕駛、醫(yī)療等領域。本文上篇中,我們將介紹基于PaddlePaddle的四種計算機視覺技術及其相關的深度學習模型。

一、圖像分類

圖像分類是根據(jù)圖像的語義信息對不同類別圖像進行區(qū)分,是計算機視覺中重要的基礎問題,是物體檢測、圖像分割、物體跟蹤、行為分析、人臉識別等其他高層視覺任務的基礎。

圖像分類在許多領域都有著廣泛的應用。如:安防領域的人臉識別和智能視頻分析等,交通領域的交通場景識別,互聯(lián)網(wǎng)領域基于內(nèi)容的圖像檢索和相冊自動歸類,醫(yī)學領域的圖像識別等。

得益于深度學習的推動,圖像分類的準確率大幅度提升。在經(jīng)典的數(shù)據(jù)集ImageNet上,訓練圖像分類任務常用的模型,包括AlexNet、VGG、GoogLeNet、ResNet、Inception-v4、MobileNet、MobileNetV2、DPN(Dual Path Network)、SE-ResNeXt、ShuffleNet等。

△AlexNet

△VGG

△GoogLeNet

△ResNet

△Inception-v4

△MobileNet

△SE-ResNeXt

△ShuffleNet

模型的結(jié)構(gòu)和復雜程度都不一樣,最終得到的準確率也有所區(qū)別。下面這個表格中,列出了在ImageNet 2012數(shù)據(jù)集上,不同模型的top-1/top-5驗證準確率。

△圖像分類系列模型評估結(jié)果

在我們的GitHub頁面上,提供上述與訓練模型的下載。以及詳細介紹了如何使用PaddlePaddle Fluid進行圖像分類任務。包括安裝、數(shù)據(jù)準備、模型訓練、評估等等全部過程。還有將Caffe模型轉(zhuǎn)換為PaddlePaddle Fluid模型配置和參數(shù)文件的工具。

上述頁面的傳送門在此:

https://github.com/PaddlePaddle/models/blob/develop/fluid/PaddleCV/image_classification

二、目標檢測

目標檢測任務的目標是給定一張圖像或是一個視頻幀,讓計算機找出其中所有目標的位置,并給出每個目標的具體類別。

對于人類來說,目標檢測是一個非常簡單的任務。然而,計算機能夠“看到”的是圖像被編碼之后的數(shù)字,很難解圖像或是視頻幀中出現(xiàn)了人或是物體這樣的高層語義概念,也就更加難以定位目標出現(xiàn)在圖像中哪個區(qū)域。

與此同時,由于目標會出現(xiàn)在圖像或是視頻幀中的任何位置,目標的形態(tài)千變?nèi)f化,圖像或是視頻幀的背景千差萬別,諸多因素都使得目標檢測對計算機來說是一個具有挑戰(zhàn)性的問題。

在目標檢測任務中,我們主要介紹如何基于PASCAL VOC、MS COCO數(shù)據(jù)訓練通用物體檢測模型,包括SSD模型、PyramidBox模型、R-CNN模型。

?SSD模型,Single Shot MultiBox Detector,是一種單階段的目標檢測器。與兩階段的檢測方法不同,單階段目標檢測并不進行區(qū)域推薦,而是直接從特征圖回歸出目標的邊界框和分類概率。SSD 運用了這種單階段檢測的思想,并且對其進行改進:在不同尺度的特征圖上檢測對應尺度的目標,是目標檢測領域較新且效果較好的檢測算法之一,具有檢測速度快且檢測精度高的特點。

△SSD目標檢測模型結(jié)構(gòu)

△SSD目標檢測可視化

△目標檢測SSD模型評估結(jié)果

在GitHub上,我們更詳細的介紹了如何下載、訓練、使用這一模型。

傳送門在此:

https://github.com/PaddlePaddle/models/blob/develop/fluid/PaddleCV/object_detection

?PyramidBox模型,百度自主研發(fā)的人臉檢測模型,是一種語境輔助的單次人臉檢測新方法,能夠解決在不受控制的環(huán)境中檢測小的、模糊的及部分遮擋的人臉時的問題,模型于18年3月份在WIDER Face數(shù)據(jù)集上取得第一名。

△Pyramidbox 人臉檢測模型

△Pyramidbox 預測可視化

△PyramidBox模型評估結(jié)果

如果想進一步了解這個模型,傳送門在此(而且是全中文指導):

https://github.com/PaddlePaddle/models/tree/develop/fluid/PaddleCV/face_detection

?R-CNN系列模型,區(qū)域卷積神經(jīng)網(wǎng)絡(R-CNN)系列模型是典型的兩階段目標檢測器,相較于傳統(tǒng)提取區(qū)域的方法,R-CNN中RPN網(wǎng)絡通過共享卷積層參數(shù)大幅提高提取區(qū)域的效率,并提出高質(zhì)量的候選區(qū)域。Faster R-CNN和Mask R-CNN是R-CNN系列的典型模型。

Faster R-CNN 區(qū)域生成網(wǎng)絡(RPN)+Fast R-CNN的實現(xiàn),將候選區(qū)域生成、特征提取、分類、位置精修統(tǒng)一到一個深度網(wǎng)絡框架,大大提高運行速度。

Mask R-CNN在原有Faster R-CNN模型基礎上添加分割分支,得到掩碼結(jié)果,實現(xiàn)了掩碼和類別預測關系的解藕,是經(jīng)典的實例分割模型。

△Faster R-CNN 結(jié)構(gòu)

△Faster R-CNN 預測可視化

△Mask R-CNN結(jié)構(gòu)

△Mask R-CNN 預測可視化

△Faster R-CNN評估結(jié)果

△Mask R-CNN評估結(jié)果

同樣,如果你想進一步學習R-CNN安裝、準備、訓練等,可以前往下面這個傳送門:

https://github.com/PaddlePaddle/models/tree/develop/fluid/PaddleCV/rcnn

三、圖像語義分割

圖像語意分割,顧名思義是將圖像像素按照表達的語義含義的不同進行分組/分割。

圖像語義是指對圖像內(nèi)容的理解,例如,能夠描繪出什么物體在哪里做了什么事情等,分割是指對圖片中的每個像素點進行標注,標注屬于哪一類別。近年來用在無人車駕駛技術中分割街景來避讓行人和車輛、醫(yī)療影像分析中輔助診斷等。

分割任務主要分為實例分割和語義分割,實例分割是物體檢測加上語義分割的綜合體,上文介紹的Mask R-CNN是實例分割的經(jīng)典網(wǎng)絡結(jié)構(gòu)之一。在圖像語義分割任務中,我們主要介紹兼顧準確率和速度的ICNet,DeepLab中最新、執(zhí)行效果最好的DeepLab v3+。

?DeepLab v3+,DeepLab語義分割系列網(wǎng)絡的最新作,通過encoder-decoder進行多尺度信息的融合,同時保留了原來的空洞卷積和ASSP層, 其骨干網(wǎng)絡使用了Xception模型,提高了語義分割的健壯性和運行速率,在 PASCAL VOC 2012 dataset取得新的state-of-art performance,89.0mIOU。

△DeepLab v3+ 基本結(jié)構(gòu)

△DeepLab v3+ 評估結(jié)果

照例,GitHub傳送門在此(中文):

https://github.com/PaddlePaddle/models/tree/develop/fluid/PaddleCV/deeplabv3%2B

?ICNet,Image Cascade Network,主要用于圖像實時語義分割,主要思想是將輸入圖像變換為不同的分辨率,然后用不同計算復雜度的子網(wǎng)絡計算不同分辨率的輸入,然后將結(jié)果合并。ICNet由三個子網(wǎng)絡組成,計算復雜度高的網(wǎng)絡處理低分辨率輸入,計算復雜度低的網(wǎng)絡處理分辨率高的網(wǎng)絡,通過這種方式在高分辨率圖像的準確性和低復雜度網(wǎng)絡的效率之間獲得平衡。

△ICNet網(wǎng)絡結(jié)構(gòu)

△ICNet可視化

△ICNet評估結(jié)果

進一步上手實踐的傳送門在此(也是中文):

https://github.com/PaddlePaddle/models/tree/develop/fluid/PaddleCV/icnet

四、場景文字識別

許多場景圖像中包含著豐富的文本信息,對理解圖像信息有著重要作用,能夠極大地幫助人們認知和理解場景圖像的內(nèi)容。場景文字識別是在圖像背景復雜、分辨率低下、字體多樣、分布隨意等情況下,將圖像信息轉(zhuǎn)化為文字序列的過程,可認為是一種特別的翻譯過程:將圖像輸入翻譯為自然語言輸出。場景圖像文字識別技術的發(fā)展也促進了一些新型應用的產(chǎn)生,如通過自動識別路牌中的文字幫助街景應用獲取更加準確的地址信息等。

在場景文字識別任務中,我們介紹如何將基于CNN的圖像特征提取和基于RNN的序列翻譯技術結(jié)合,免除人工定義特征,避免字符分割,使用自動學習到的圖像特征,完成字符識別。這里主要介紹CRNN-CTC模型和基于注意力機制的序列到序列模型。

?CRNN-CTC模型,采取CNN+RNN+CTC架構(gòu),卷積層使用CNN,從輸入圖像中提取特征序列、循環(huán)層使用RNN,預測從卷積層獲取的特征序列的標簽(真實值)分布、轉(zhuǎn)錄層使用CTC,把從循環(huán)層獲取的標簽分布通過去重整合等操作轉(zhuǎn)換成最終的識別結(jié)果。

?基于注意力機制的序列到序列模型,提出了基于attention機制的文本識別方法,不需要檢測,直接輸入圖片進行識別,對于識別字符類別數(shù)很少的場景很實用,例如車牌識別、自然場景圖片的主要關鍵詞提取等。同時也不要求識別文本必須單行排列,雙行排列,多行排列都可以。在訓練過程中則不需要文本框的標注,訓練數(shù)據(jù)的收集變得很方便。

△CRNN-CTC模型結(jié)構(gòu)

△基于注意力機制的序列到序列模型結(jié)構(gòu)

△OCR模型評估結(jié)果

GitHub傳送門在此(中文友好):

https://github.com/PaddlePaddle/models/tree/develop/fluid/PaddleCV/ocr_recognition

下篇

上篇中我們介紹了計算機視覺技術在圖像分類、目標檢測、圖像語義分割、場景文字識別四大基本任務場景下,如何幫助計算機從單個或者一系列的圖片中提取分析和理解的關鍵信息。當下,視頻在人們生活中越來越重要,伴隨著技術成熟度的提高,計算機視覺技術的突破也從靜態(tài)圖像識別的“看到”轉(zhuǎn)向了視頻理解的“看懂”。

接下來,我們一起探索基于PaddlePaddle的圖像生成、人體關鍵點檢測、視頻分類相關的深度學習模型。

一、圖像生成

圖像生成是指根據(jù)輸入向量,生成目標圖像。這里的輸入向量可以是隨機的噪聲或用戶指定的條件向量。具體的應用場景有:手寫體生成、人臉合成、風格遷移、圖像修復、超分重建等。當前的圖像生成任務主要是借助生成對抗網(wǎng)絡(GAN)來實現(xiàn)。

生成對抗網(wǎng)絡(GAN)由兩種子網(wǎng)絡組成:生成器和識別器。生成器的輸入是隨機噪聲或條件向量,輸出是目標圖像。識別器是一個分類器,輸入是一張圖像,輸出是該圖像是否是真實的圖像。在訓練過程中,生成器和識別器通過不斷的相互博弈提升自己的能力。

在圖像生成任務中,我們主要介紹如何使用DCGAN和ConditioanlGAN來進行手寫數(shù)字的生成,另外還介紹了用于風格遷移的CycleGAN。

?ConditioanlGAN,顧名思義是帶條件約束的生成對抗模型,它在生成模型和判別模型的建模中均引入了額外的條件變量,對于生成器對數(shù)據(jù)的生成具有指導作用。ConditioanlGAN是把無監(jiān)督的GAN變成有監(jiān)督模型的改進,為后續(xù)的工作提供了指導作用。

△ConditioanlGAN結(jié)構(gòu)

△ConditioanlGAN預測效果圖

傳送門(中文):

https://github.com/PaddlePaddle/models/tree/develop/fluid/PaddleCV/gan/c_gan

?DCGAN,為了填補CNN在監(jiān)督學習和無監(jiān)督學習之間的gap,此篇論文提出了將CNN和GAN結(jié)合的DCGAN(深度卷積生成對抗網(wǎng)絡),并且DCGAN在無監(jiān)督學習中取得不錯的結(jié)果。

△DCGAN結(jié)構(gòu)

△DCGAN預測效果圖

傳送門(中文):

https://github.com/PaddlePaddle/models/tree/develop/fluid/PaddleCV/gan/c_gan

?CycleGAN,將一類圖片轉(zhuǎn)換成另一類圖片。傳統(tǒng)的 GAN 是單向生成,CycleGAN 是互相生成,本質(zhì)上是兩個鏡像對稱的GAN,構(gòu)成了一個環(huán)形網(wǎng)絡,所以命名為 Cycle。風格遷移類任務一般都需要兩個域中具有相同內(nèi)容的成對圖片作為訓練數(shù)據(jù),CycleGAN的創(chuàng)新點就在于其能夠在沒有成對訓練數(shù)據(jù)的情況下,將圖片內(nèi)容從源域遷移到目標域。

△CycleGAN 結(jié)構(gòu)

△CycleGAN預測可視化

傳送門(中文):

https://github.com/PaddlePaddle/models/tree/develop/fluid/PaddleCV/gan/cycle_gan

二、人體關鍵點檢測

人體關鍵點檢測,通過人體關鍵節(jié)點的組合和追蹤來識別人的運動和行為,對于描述人體姿態(tài),預測人體行為至關重要,是諸多計算機視覺任務的基礎,例如動作分類,異常行為檢測,以及自動駕駛等等,也為游戲、視頻等提供新的交互方式。

在人體關鍵點檢測任務中,我們主要介紹網(wǎng)絡結(jié)構(gòu)簡單的coco2018關鍵點檢測項目的亞軍方案。

?Simple Baselines for Human Pose Estimation in Fluid,coco2018關鍵點檢測項目的亞軍方案,沒有華麗的技巧,僅僅是在ResNet中插入了幾層反卷積,將低分辨率的特征圖擴張為原圖大小,以此生成預測關鍵點需要的Heatmap。沒有任何的特征融合,網(wǎng)絡結(jié)構(gòu)非常簡單,但是達到了state of the art效果。

△視頻Demo: Bruno Mars - That’s What I Like [官方視頻]

△Simple Baselines for Human Pose Estimation in Fluid 評估結(jié)果

GitHub傳送門:

https://github.com/PaddlePaddle/models/tree/develop/fluid/PaddleCV/human_pose_estimation

三、視頻分類

視頻分類是視頻理解任務的基礎,與圖像分類不同的是,分類的對象不再是靜止的圖像,而是一個由多幀圖像構(gòu)成的、包含語音數(shù)據(jù)、包含運動信息等的視頻對象,因此理解視頻需要獲得更多的上下文信息,不僅要理解每幀圖像是什么、包含什么,還需要結(jié)合不同幀,知道上下文的關聯(lián)信息。

視頻分類方法主要包含基于卷積神經(jīng)網(wǎng)絡、基于循環(huán)神經(jīng)網(wǎng)絡、或?qū)⑦@兩者結(jié)合的方法。

在視頻分類任務中,我們主要介紹視頻分類方向的多個主流領先模型,其中Attention LSTM,Attention Cluster和NeXtVLAD是比較流行的特征序列模型,TSN和StNet是兩個End-to-End的視頻分類模型。

Attention LSTM模型速度快精度高,NeXtVLAD是2nd-Youtube-8M比賽中最好的單模型, TSN是基于2D-CNN的經(jīng)典解決方案。Attention Cluster和StNet是百度自研模型,分別發(fā)表于CVPR2018和AAAI2019,是Kinetics600比賽第一名中使用到的模型。

?Attention Cluster模型為ActivityNet Kinetics Challenge 2017中最佳序列模型,通過帶Shifting Opeation的Attention Clusters處理已抽取好的RGB、Flow、Audio數(shù)據(jù)。

△Attention Cluster模型結(jié)構(gòu)

Attention LSTM 模型,采用了雙向長短記憶網(wǎng)絡(LSTM),將視頻的所有幀特征依次編碼。與傳統(tǒng)方法直接采用LSTM最后一個時刻的輸出不同,該模型增加了一個Attention層,每個時刻的隱狀態(tài)輸出都有一個自適應權(quán)重,然后線性加權(quán)得到最終特征向量。

△Attention LSTM 模型結(jié)構(gòu)

?NeXtVLAD模型,第二屆Youtube-8M視頻理解競賽中效果最好的單模型,提供了一種將楨級別的視頻特征轉(zhuǎn)化并壓縮成特征向量,以適用于大尺寸視頻文件的分類的方法。其基本出發(fā)點是在NetVLAD模型的基礎上,將高維度的特征先進行分組,通過引入attention機制聚合提取時間維度的信息,這樣既可以獲得較高的準確率,又可以使用更少的參數(shù)量。

△NeXtVLAD模型結(jié)構(gòu)

?StNet模型,框架為ActivityNet Kinetics Challenge 2018中奪冠的基礎網(wǎng)絡框架,提出“super-image”的概念,在super-image上進行2D卷積,建模視頻中局部時空相關性。另外通過temporal modeling block建模視頻的全局時空依賴,最后用一個temporal Xception block對抽取的特征序列進行長時序建模。

△StNet模型結(jié)構(gòu)

?Temporal Segment Network (TSN),視頻分類領域經(jīng)典的基于2D-CNN的解決方案,主要解決視頻的長時間行為判斷問題,通過稀疏采樣視頻幀的方式代替稠密采樣,既能捕獲視頻全局信息,也能去除冗余,降低計算量。最終將每幀特征平均融合后得到視頻的整體特征,并用于分類。

△TSN模型結(jié)構(gòu)

△基于Youtube-8M數(shù)據(jù)集的視頻分類模型 評估結(jié)果

△基于Kinetics數(shù)據(jù)集的視頻分類模型 評估結(jié)果

這部分的詳情,可以移步GitHub,全程中文。傳送門:

https://github.com/PaddlePaddle/models/tree/develop/fluid/PaddleCV/video

四、度量學習

度量學習也稱作距離度量學習、相似度學習,通過學習對象之間的距離,度量學習能夠用于分析對象時間的關聯(lián)、比較關系,在實際問題中應用較為廣泛,可應用于輔助分類、聚類問題,也廣泛用于圖像檢索、人臉識別等領域。

以往,針對不同的任務,需要選擇合適的特征并手動構(gòu)建距離函數(shù),而度量學習可根據(jù)不同的任務來自主學習出針對特定任務的度量距離函數(shù)。度量學習和深度學習的結(jié)合,在人臉識別/驗證、行人再識別(human Re-ID)、圖像檢索等領域均取得較好的性能,在這個任務中我們主要介紹基于Fluid的深度度量學習模型,包含了三元組、四元組等損失函數(shù)。

△度量學習模型 評估結(jié)果

GitHub的頁面上有安裝、準備、訓練等方面的指導,傳送門:

https://github.com/PaddlePaddle/models/tree/develop/fluid/PaddleCV/metric_learning

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器視覺
    +關注

    關注

    162

    文章

    4375

    瀏覽量

    120366
  • 圖像分類
    +關注

    關注

    0

    文章

    90

    瀏覽量

    11923
  • 計算機視覺
    +關注

    關注

    8

    文章

    1698

    瀏覽量

    46005

原文標題:計算機視覺八大任務全概述:PaddlePaddle工程師詳解熱門視覺模型

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦

    最適合 AI 應用的計算機視覺類型是什么?

    著眼于使計算機能夠像人類一樣通過“看”來感知世界,從這一視角對人工智能 (AI) 進行了探討。我將簡要比較每一類計算機視覺,尤其關注在本地而不是依賴基于云的資源收集和處理數(shù)據(jù),并根據(jù)數(shù)
    的頭像 發(fā)表于 12-18 13:09 ?7231次閱讀
    最適合 AI 應用的<b class='flag-5'>計算機</b><b class='flag-5'>視覺</b>類型是什么?

    機器視覺計算機視覺的關系簡述

    初涉機器視覺領域,總是容易將其與計算機視覺這一概念混淆。實際上兩者確實存在一定的相同之處,但也不能因此而將這兩者視為同一概念,因為這兩者還存在著顯著的差別。而與此同時,兩者也還有著密不
    發(fā)表于 05-13 14:57

    自動駕駛系統(tǒng)要完成哪些計算機視覺任務?

    Geiger 的研究主要集中在用于自動駕駛系統(tǒng)的三維視覺理解、分割、重建、材質(zhì)與動作估計等方面。他主導了自動駕駛領域著名數(shù)據(jù)集 KITTI 及多項自動駕駛計算機視覺
    發(fā)表于 07-30 06:49

    對電力系統(tǒng)計算機應用存在問題及解決方法進行了探討

    摘要:電力工業(yè)作為國民經(jīng)濟的支柱型產(chǎn)業(yè),計算機技術不僅種類繁多、范圍廣泛,而且非常復雜,一旦出現(xiàn)問題,容易給整個電力系統(tǒng)帶來巨大的損失。本文對電力系統(tǒng)計算機應用存在問題及解決方法進行了探討。關鍵詞
    發(fā)表于 09-10 06:31

    深度學習與傳統(tǒng)計算機視覺簡介

    文章目錄1 簡介1.1 深度學習與傳統(tǒng)計算機視覺1.2 性能考量1.3 社區(qū)支持2 結(jié)論3 參考在計算機視覺領域中,不同的場景不同的應用程序
    發(fā)表于 12-23 06:17

    DNA計算機的研究現(xiàn)狀

    為了幫助研究者進一步認識DNA計算機的研究現(xiàn)狀,通過查找文獻法和歸納法對DNA計算機的研究現(xiàn)狀進行了梳理。首先介紹了DNA計算機的原理基礎和研制過程,然后
    發(fā)表于 04-12 16:08 ?0次下載

    計算機視覺與機器視覺區(qū)別

     “計算機視覺”,是指用計算機實現(xiàn)人的視覺功能,對客觀世界的三維場景的感知、識別和理解。計算機視覺
    的頭像 發(fā)表于 12-08 09:27 ?1.3w次閱讀

    深度學習后的計算機視覺應用領域解析

    計算機視覺是使用計算機及相關設備對生物視覺的一種模擬,是人工智能領域的一個重要部分,它主要任務
    發(fā)表于 07-22 16:49 ?1869次閱讀

    簡單闡述一下計算機視覺的幾大任務!

    計算機視覺的幾大任務 3025748808_702 在 周一, 04/01/2019 - 09:36 提交 計算機視覺的幾
    的頭像 發(fā)表于 03-24 15:16 ?6791次閱讀

    視覺問答與對話任務研究綜述

    視覺問答與對話是人工智能領堿的重要硏究任務,是計算機視覺與自然語言處理交叉領域的代表性問題之一。視覺
    發(fā)表于 04-08 10:33 ?10次下載
    <b class='flag-5'>視覺</b>問答與對話<b class='flag-5'>任務</b>研究<b class='flag-5'>綜述</b>

    計算機視覺的概念和主要任務

    作為人工智能的關鍵領域之一的計算機視覺近期再次成為了熱點,那么你真的了解什么是計算機視覺嗎?
    的頭像 發(fā)表于 07-17 11:20 ?1390次閱讀

    最適合AI應用的計算機視覺類型是什么?

    計算機視覺是指為計算機賦予人類視覺這一技術目標,從而賦能裝配線檢查到駕駛輔助和機器人等應用。計算機缺乏像人類一樣憑直覺產(chǎn)生
    的頭像 發(fā)表于 11-15 16:38 ?455次閱讀
    最適合AI應用的<b class='flag-5'>計算機</b><b class='flag-5'>視覺</b>類型是什么?

    計算機視覺的十大算法

    視覺技術的發(fā)展起到了重要的推動作用。一、圖像分割算法圖像分割算法是計算機視覺領域的基礎算法之一,它的主要任務是將圖像分割成不同的區(qū)域或?qū)ο蟆?/div>
    的頭像 發(fā)表于 02-19 13:26 ?1247次閱讀
    <b class='flag-5'>計算機</b><b class='flag-5'>視覺</b>的十大算法

    計算機視覺的主要研究方向

    計算機視覺(Computer Vision, CV)作為人工智能領域的一個重要分支,致力于使計算機能夠像人眼一樣理解和解釋圖像和視頻中的信息。隨著深度學習、大數(shù)據(jù)等技術的快速發(fā)展,
    的頭像 發(fā)表于 06-06 17:17 ?987次閱讀

    深度學習在計算機視覺領域的應用

    深度學習技術的引入,極大地推動了計算機視覺領域的發(fā)展,使其能夠處理更加復雜和多樣化的視覺任務。本文將詳細
    的頭像 發(fā)表于 07-01 11:38 ?822次閱讀