1、簡(jiǎn)介
圖像分割任務(wù),即算法需要預(yù)測(cè)出圖片中的每一個(gè)像素點(diǎn)的類別。它解決了“圖像中每一個(gè)像素點(diǎn)是什么類別的問(wèn)題”。上圖所示了一個(gè)自動(dòng)駕駛場(chǎng)景下的圖像分割效果,圖片中相同的顏色表示相同的類別,不同的顏色表示不同的類別。
圖像分割方法種類繁多,包括傳統(tǒng)的基于閾值、邊緣和區(qū)域的方法,以及近年來(lái)基于深度學(xué)習(xí)的方法,如全卷積網(wǎng)絡(luò)(FCN)、編碼器-解碼器網(wǎng)絡(luò)、視覺(jué)注意力機(jī)制、對(duì)抗生成網(wǎng)絡(luò)等。在圖像分割任務(wù)中,需注意逐像素標(biāo)注方式和實(shí)例級(jí)別標(biāo)注方式的區(qū)別,并需要針對(duì)不同的應(yīng)用場(chǎng)景選擇適合的評(píng)價(jià)指標(biāo)和數(shù)據(jù)集。
2、發(fā)展歷程
2014年,J. Long, E. Shelhamer, and T. Darrell等人發(fā)表了“Fully convolutional networks for semantic segmentation”了算法(https://arxiv.org/pdf/2001.05566.pdf),即FCN算法。FCN的核心思想是將傳統(tǒng)的全連接層轉(zhuǎn)變?yōu)榫矸e層,并且采用反卷積技術(shù)將最后一層卷積輸出映射回原始圖像大小。
2015年,O. Ronneberger, P. Fischer, and T. Brox等人發(fā)表了“U-net: Convolutional networks for biomedical image segmentation”,即U-net算法。U-net的特點(diǎn)是通過(guò)一系列卷積、池化和反卷積操作實(shí)現(xiàn)了圖像分割,并在特征提取過(guò)程中保留了高分辨率的細(xì)節(jié)信息。
2016年,V. Badrinarayanan, A. Kendall, and R. Cipolla等人發(fā)表了“Segnet: A deep convolutional encoder-decoder architecture for image segmentation”,即SegNet算法。SegNet的特點(diǎn)是采用了輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),并設(shè)計(jì)了一種基于池化索引的解碼器,能夠?qū)崿F(xiàn)快速而準(zhǔn)確的圖像分割。
2017年,L.-C. Chen, G. Papandreou, I. Kokkinos, K. Murphy, and A. L. Yuille等人發(fā)表了“Semantic image segmentation with deep convolutional nets and fully connected crfs”,即DeepLab算法,后續(xù)陸續(xù)推出DeepLabV2和DeepLabV3等算法。該算法首次在CNN中引入了完全連接的條件隨機(jī)場(chǎng)(CRFs),該CRF模型建模了圖像的全局上下文,通過(guò)允許標(biāo)簽之間的相互作用來(lái)獲得更準(zhǔn)確的分割結(jié)果。
2018年,L.-C. Chen, A. Hermans, G. Papandreou, F. Schroff, P. Wang, and H. Adam等人發(fā)表了“Masklab: Instance segmentation by refining object detection with semantic and direction features”,即Mask-Lab算法。該算法的主要思想是,在卷積神經(jīng)網(wǎng)絡(luò)中添加實(shí)例感知模塊,以分離不同對(duì)象的實(shí)例。
2019年,Y. Yuan, X. Chen, and J. Wang等人發(fā)表了“Object-contextual representations for semantic segmentation”,即HRNet算法。HRNet算法的主要思想是在多個(gè)分辨率上進(jìn)行特征提取,同時(shí)跨層連接以消除分辨率差異和信息損失。
2020年,B. Zoph, G. Ghiasi, T.-Y. Lin, Y. Cui, H. Liu, E. D. Cubuk, and Q. V. Le等人發(fā)表了“Rethinking pre-training and self-training”,即EfficientNet+NAS-FPN算法。該算法的核心思想是在無(wú)標(biāo)簽數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練和自訓(xùn)練,從而提高有標(biāo)簽數(shù)據(jù)的分割性能。
2020年之后,圖像分割算法的性能基本達(dá)到了精度天花板,很多學(xué)者轉(zhuǎn)做實(shí)例分割和全景分割。
3、應(yīng)用場(chǎng)景
自動(dòng)駕駛-目標(biāo)分割可以應(yīng)用在自動(dòng)駕駛場(chǎng)景中完成靜態(tài)障礙物和動(dòng)態(tài)障礙物的精準(zhǔn)分割,從而構(gòu)建一個(gè)語(yǔ)義地圖傳遞給后面的規(guī)劃和控制模塊。
交互標(biāo)定-利用目標(biāo)算法可以基于幾個(gè)點(diǎn)快速的標(biāo)注目標(biāo)物體,這樣可以極大的提升人員的標(biāo)注成本。
人像摳圖-人像摳圖功能在我們的日常生活中有著大量的應(yīng)用,最常用的就是各種遠(yuǎn)程會(huì)議軟件上面的摳圖功能。該算法基本能達(dá)到扣頭發(fā)絲的精度。
醫(yī)學(xué)圖像分析-圖像分割算法可以針對(duì)人體各器官進(jìn)行精細(xì)的分割,協(xié)助醫(yī)生完成一些醫(yī)學(xué)診斷的問(wèn)題。該功能已經(jīng)在一些醫(yī)院有所應(yīng)用。
4、算法類別
對(duì)于圖像分割任務(wù)而言,我們可以將其細(xì)分為語(yǔ)義分割、實(shí)例分割和全景分割三種類別。如上圖所示,輸入的是一張街拍場(chǎng)景的圖片。語(yǔ)義分割任務(wù)只能區(qū)分不同的類別,無(wú)法區(qū)別相同的類別。實(shí)例分割任務(wù)不僅可以區(qū)分不同的類別,也可以區(qū)分相同類別中的不同個(gè)數(shù),如圖片中的行人和車(chē)輛 ,不同的人用不同的顏色進(jìn)行顯示。全景分割則是語(yǔ)義分割和實(shí)例分割的交集。
語(yǔ)義分割是區(qū)分同類物體的分割任務(wù),實(shí)例分割是區(qū)分不同實(shí)例的分割任務(wù),而全景分割則同時(shí)達(dá)到這兩個(gè)目標(biāo)。全景分割既可以區(qū)分彼此相關(guān)的物體,也可以區(qū)分它們?cè)趫D像中的位置,這使其非常適合對(duì)圖像中所有類別的目標(biāo)進(jìn)行分割。
5、經(jīng)典算法剖析
5.1 UNet算法詳解
算法簡(jiǎn)介:
UNet是一種基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分割算法,它于2015年由Olaf Ronneberger等人提出。與FCN等分割算法不同,UNet采用了一種新的網(wǎng)絡(luò)結(jié)構(gòu),能夠更好地處理物體邊緣和小的物體。
創(chuàng)新點(diǎn):
UNet算法的創(chuàng)新點(diǎn)在于其網(wǎng)絡(luò)結(jié)構(gòu),即將傳統(tǒng)的編碼器-解碼器架構(gòu)與跳躍連接技術(shù)相結(jié)合,形成了一個(gè)“U”形的網(wǎng)絡(luò)結(jié)構(gòu)。UNet算法流程:1. 圖像編碼:首先,通過(guò)卷積層實(shí)現(xiàn)圖像特征的提取和縮小,構(gòu)建編碼器。采用類似于VGG網(wǎng)絡(luò)的結(jié)構(gòu),通過(guò)不斷重復(fù)卷積、下采樣的過(guò)程,將輸入的圖像逐漸縮小,并提取出不同尺度的特征。2. 圖像解碼:構(gòu)建解碼器,是為了逐步將圖像還原回原始的分辨率。UNet算法中的解碼器采用了鏡像反卷積操作,逐步還原特征圖的尺寸,也通過(guò)不斷重復(fù)卷積、上采樣的過(guò)程,將特征融合到更高的分辨率上。3. 跳躍連接:UNet算法引入了跳躍連接(skip connection),將編碼層和對(duì)應(yīng)的解碼層中的特征圖進(jìn)行連接。這種方式能夠?qū)⒌讓拥恼Z(yǔ)義信息(例如邊緣信息)直接提供給解碼器,有利于保留物體邊緣信息,同時(shí)也有利于消除某些不必要的噪聲。4. 輸出結(jié)果:通過(guò)在UNet網(wǎng)絡(luò)的最后一層卷積后接一個(gè)含有類別數(shù)+1個(gè)通道的全連接層,并使用softmax函數(shù)得到像素分類的概率值,就可以生成語(yǔ)義分割圖了??偟膩?lái)說(shuō),UNet算法采用了跳躍連接,能夠更好地保留圖像的信息,使得算法更適用于分割小物體和物體之間的邊界。該算法在實(shí)際應(yīng)用中被廣泛使用,特別是在醫(yī)學(xué)圖像分割領(lǐng)域,如肝臟分割和胰腺分割等。
5.2Mask-RCNN算法詳解
簡(jiǎn)介:
Mask RCNN是一種深度學(xué)習(xí)圖像分割算法,由FAIR(Facebook AI Research)于2018年提出。它是RCNN系列算法的最新版本,在Faster RCNN和Mask RCNN的基礎(chǔ)上加入了全新的分割網(wǎng)絡(luò)。算法創(chuàng)新點(diǎn):1. Mask RCNN是第一種能夠?qū)崿F(xiàn)目標(biāo)檢測(cè)和實(shí)例分割的統(tǒng)一框架算法,不需要額外的分割網(wǎng)絡(luò); 2. Mask RCNN通過(guò)于Faster RCNN相似的兩個(gè)分支結(jié)構(gòu),檢測(cè)出每個(gè)物體的對(duì)象邊界框,并且對(duì)其中的每個(gè)對(duì)象實(shí)現(xiàn)語(yǔ)義分割; 3. Mask RCNN創(chuàng)新性地加入了RoIAlign模塊,可以以像素級(jí)別的準(zhǔn)確度提取ROI特征; 4. Mask RCNN在訓(xùn)練時(shí)采用了多尺度訓(xùn)練和水平翻轉(zhuǎn)等數(shù)據(jù)增強(qiáng)技術(shù),提高了魯棒性; 5. Mask RCNN利用了實(shí)例分割結(jié)果來(lái)輔助目標(biāo)檢測(cè),提高了檢測(cè)的效率和準(zhǔn)確性。算法步驟:1. 首先,在特征提取器(如ResNet)的基礎(chǔ)上,添加一個(gè)RoI pooling層,用來(lái)提取每個(gè)BoundingBox內(nèi)的特征向量; 2. 然后,進(jìn)入到Proposal Generation 階段,使用RPN來(lái)產(chǎn)生多個(gè)區(qū)域框,對(duì)每個(gè)區(qū)域框進(jìn)行候選區(qū)域的分類(物體還是非物體)和邊界框回歸(Bounding Box Regression); 3. 在Proposal Refinement(即Detection)階段,結(jié)合Proposal Generation的結(jié)果,利用Fast RCNN的方法,先將每個(gè)候選區(qū)域的特征向量轉(zhuǎn)換成一個(gè)固定尺寸的特征圖(由RoI pooling提?。?,然后通過(guò)全連接層來(lái)實(shí)現(xiàn)分類和位置回歸; 4. 最后,加入Mask RCNN的核心部分,即Mask Generation階段。我們以RoIAlign代替RoI Pooling,對(duì)每個(gè)RoI內(nèi)的坐標(biāo)點(diǎn)都采用雙線性濾波,從而在ROI范圍內(nèi)等距采樣得到RoIAlign Feature Map。使用一個(gè)分支來(lái)預(yù)測(cè)分割,并對(duì)每個(gè)ROI生成一個(gè)mask.
6、評(píng)估指標(biāo)
6.1 定量指標(biāo)1.精確度(Accuracy):分割正確的像素?cái)?shù)占總像素?cái)?shù)的比例,即TP+TN/(TP+TN+FP+FN),其中TP為真正例,TN為真反例,F(xiàn)P為假正例,F(xiàn)N為假反例。2.召回率(Recall):正確分割出的像素?cái)?shù)占實(shí)際應(yīng)分割像素?cái)?shù)的比例,即TP/(TP+FN)。3.精度(Precision):正確分割出的像素?cái)?shù)占分割出的像素總數(shù)的比例,即TP/(TP+FP)。4.F1值(F1-score):綜合考慮Precision和Recall,即2*Precision*Recall/(Precision+Recall)。5.歐拉距離(Euclidean distance):分割圖像與真實(shí)分割圖像之間的歐拉距離。6.交并比(IoU):分割圖像與真實(shí)分割圖像之間的重疊像素?cái)?shù)占并集像素?cái)?shù)的比例,即TP/(TP+FP+FN)。7.像素錯(cuò)誤率(Pixel error rate):錯(cuò)誤分割像素?cái)?shù)占總像素?cái)?shù)的比例,即FP+FN/(TP+TN+FP+FN)。8.平均準(zhǔn)確度(Mean accuracy):分類正確的像素?cái)?shù)占各類應(yīng)分割像素?cái)?shù)的平均值,即(∑TP_i)/(∑(TP_i+FP_i)),其中i為類別。9.平均交并比(Mean IoU):所有類別的IoU的平均值,即(∑TP_i)/(∑(TP_i+FP_i+FN_i)),其中i為類別。
6.2 定性指標(biāo)
1.視覺(jué)效果(Visual quality):分割結(jié)果能否符合人的感受,如邊界清晰、區(qū)域連續(xù)等。2.時(shí)間復(fù)雜度(Time complexity):計(jì)算分割結(jié)果所需的時(shí)間和計(jì)算復(fù)雜度,對(duì)于實(shí)時(shí)應(yīng)用來(lái)說(shuō)尤為重要。3.空間復(fù)雜度(Space complexity):占用內(nèi)存的大小,對(duì)于大型圖片和數(shù)據(jù)量來(lái)說(shuō)尤為重要。4.可擴(kuò)展性(Scalability):算法的擴(kuò)展性,能否適應(yīng)不同規(guī)模的數(shù)據(jù)集和不同的場(chǎng)景。5.魯棒性(Robustness):算法的穩(wěn)定性和適應(yīng)性,對(duì)于噪聲和異常情況的處理能力。
7、開(kāi)源數(shù)據(jù)集
1. Cityscapes-https://www.cityscapes-dataset.com/
Cityscapes是一個(gè)針對(duì)城市街景圖像分割的大規(guī)模數(shù)據(jù)集,包含了街景照片、標(biāo)記為19個(gè)不同類別的圖像分割或?qū)嵗指畹榷喾N圖像數(shù)據(jù)類型。
2. COCO-http://cocodataset.org/#overview
COCO是一個(gè)通用的目標(biāo)檢測(cè)、圖像分割和實(shí)例分割數(shù)據(jù)集,包含了各種場(chǎng)景下的圖像,涵蓋了多種物體類別。
3. PASCAL VOC-http://host.robots.ox.ac.uk/pascal/VOC/
PASCAL VOC是一個(gè)流行的計(jì)算機(jī)視覺(jué)數(shù)據(jù)集,包含了20多個(gè)物體類別的圖像樣本,以及這些物體的位置標(biāo)記。
4. ADE20K-https://groups.csail.mit.edu/vision/datasets/ADE20K/
ADE20K是一個(gè)基于社區(qū)貢獻(xiàn)的大規(guī)模場(chǎng)景理解和圖像分割數(shù)據(jù)集,其中包含了超過(guò)20,000張圖像和類別標(biāo)注。
5. BSDS500-https://www2.eecs.berkeley.edu/Research/Projects/CS/vision/grouping/segbench/
BSDS500是一個(gè)用于邊緣檢測(cè)、分割和顯著性檢測(cè)的數(shù)據(jù)集,包含了幾百?gòu)垐D像和像素級(jí)標(biāo)注。
6. CamVid-http://mi.eng.cam.ac.uk/research/projects/VideoRec/CamVid/
CamVid是一個(gè)針對(duì)道路場(chǎng)景的圖像分割數(shù)據(jù)集,包含了對(duì)不同類別的道路元素(如汽車(chē)、行人等)的標(biāo)記。
7. SUN RGB-D-https://rgbd.cs.princeton.edu/
SUN RGB-D是一個(gè)室內(nèi)場(chǎng)景3D圖像分割數(shù)據(jù)集,其包括了帶深度信息的RGB圖像,用于分割物體、家具、地板等不同場(chǎng)景中的元素。
8. MS COCO Panoptic Segmentation-https://cocodataset.org/#panoptic-2018
MS COCO Panoptic Segmentation是一個(gè)多種物體檢測(cè)圖像分類和實(shí)例分割任務(wù)的數(shù)據(jù)集。其包含80類物體和133k張圖像。
8、熱門(mén)論文
1. Fully Convolutional Networks for Semantic Segmentation-https://arxiv.org/abs/1411.4038 簡(jiǎn)介:本文提出了一種基于完全卷積網(wǎng)絡(luò)的圖像分割方法,能夠同時(shí)獲得像素級(jí)別的分類和空間信息。
2. U-Net: Convolutional Networks for Biomedical Image Segmentation-https://arxiv.org/abs/1505.04597 簡(jiǎn)介:該文介紹了一種特殊結(jié)構(gòu)的U-Net卷積神經(jīng)網(wǎng)絡(luò)用于生物醫(yī)學(xué)圖像分割。U-Net結(jié)構(gòu)的主要特點(diǎn)是在解碼階段引入了跳躍連接,從而提高了分割的質(zhì)量。
3. Mask R-CNN-https://arxiv.org/abs/1703.06870 簡(jiǎn)介:Mask R-CNN是一種基于Faster R-CNN的圖像分割模型,相比于其他模型,Mask R-CNN能夠在不損失精度的情況下在檢測(cè)任務(wù)上同時(shí)實(shí)現(xiàn)像素級(jí)別的分割。
4. DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs-https://arxiv.org/abs/1606.00915 簡(jiǎn)介:本文提出了一種語(yǔ)義圖像分割方法DeepLab,該方法通過(guò)引入擴(kuò)張卷積和CRF的全連接層,能夠提高分割結(jié)果的準(zhǔn)確性。
5. DenseNet: Densely Connected Convolutional Networks-https://arxiv.org/abs/1608.06993 簡(jiǎn)介:本文介紹了一種新型的卷積神經(jīng)網(wǎng)絡(luò)DenseNet,并將其成功應(yīng)用于圖像分類和物體檢測(cè)等任務(wù)中。DenseNet的主要特點(diǎn)是將每個(gè)層的輸入與前面所有層的輸出相連接,從而提高了信息流的利用效率。
6. FC-DenseNet: Fully Convolutional DenseNets for Semantic Segmentation-https://arxiv.org/abs/1611.09326 簡(jiǎn)介:FC-DenseNet是一種基于DenseNet的圖像分割模型,通過(guò)將DenseNet的結(jié)構(gòu)應(yīng)用于分割任務(wù)中,從而提高了分割的準(zhǔn)確性和效率。
7. PSPNet: Pyramid Scene Parsing Network-https://arxiv.org/abs/1612.01105 簡(jiǎn)介:本文提出了一種新的分割模型PSPNet,該模型引入了金字塔池化模塊,能夠在不同尺度下提取特征信息,并增加了局部和全局上下文的信息。
8. Attention U-Net: Learning Where to Look for the Pancreas-https://arxiv.org/abs/1804.03999 簡(jiǎn)介:Attention U-Net是一種關(guān)注梯度信息的全卷積網(wǎng)絡(luò),它通過(guò)自適應(yīng)上下文注意力機(jī)制,可以更加準(zhǔn)確地實(shí)現(xiàn)器官分割任務(wù)。
9. Squeeze-and-Excitation Networks-https://arxiv.org/abs/1709.01507 簡(jiǎn)介:本文提出了一種新型的卷積神經(jīng)網(wǎng)絡(luò)Squeeze-and-Excitation Networks(SENet),該網(wǎng)絡(luò)通過(guò)增加逐通道的注意力機(jī)制,提高了信息的利用效率和精度。
10. UNet++: A Nested U-Net Architecture for Medical Image Segmentation-https://arxiv.org/abs/1807.10165 簡(jiǎn)介:UNet++是一種基于U-Net的嵌套結(jié)構(gòu)圖像分割方法,通過(guò)逐級(jí)連接不同大小的U-Net,可以更加準(zhǔn)確地獲取不同尺度的特征信息。
9、熱門(mén)倉(cāng)庫(kù)
1. Mask R-CNN- https://github.com/matterport/Mask_RCNN
簡(jiǎn)介:一個(gè)基于Faster R-CNN的全卷積神經(jīng)網(wǎng)絡(luò),用于對(duì)圖像中目標(biāo)進(jìn)行實(shí)例分割,支持多方向的邊界框和掩膜生成。
2. DeepLab- https://github.com/tensorflow/models/tree/master/research/deeplab
簡(jiǎn)介:一個(gè)基于深度卷積神經(jīng)網(wǎng)絡(luò)的神經(jīng)圖像分割框架,支持多尺度和多特征融合,能處理大尺度和高分辨率圖像。
3. U-Net- https://github.com/zhixuhao/unet
簡(jiǎn)介:一個(gè)專用于醫(yī)學(xué)圖像分割的神經(jīng)網(wǎng)絡(luò)模型,結(jié)構(gòu)簡(jiǎn)單,訓(xùn)練效果優(yōu)秀,已廣泛應(yīng)用于醫(yī)學(xué)圖像分析領(lǐng)域。
4. FCN- https://github.com/shelhamer/fcn.berkeleyvision.org
簡(jiǎn)介:一個(gè)基于Fully Convolutional Network的全卷積神經(jīng)網(wǎng)絡(luò)模型,用于對(duì)圖像進(jìn)行像素級(jí)別的分割,支持多分辨率輸入和多尺度融合。
5. PSPNet- https://github.com/hszhao/PSPNet
簡(jiǎn)介:一個(gè)基于Pyramid Scene Parsing Network的圖像分割模型,通過(guò)多尺度和多分辨率的金字塔池化來(lái)獲取圖像的全局和局部信息,進(jìn)行像素級(jí)別的分割。
6. Mask-RCNN-Benchmark- https://github.com/facebookresearch/maskrcnn-benchmark
簡(jiǎn)介:一個(gè)由Facebook Research開(kāi)發(fā)的Mask R-CNN庫(kù),使用PyTorch框架實(shí)現(xiàn),支持多GPU并行訓(xùn)練和測(cè)試,訓(xùn)練速度快、效果好。
7. HRNet-Semantic-Segmentation- https://github.com/HRNet/HRNet-Semantic-Segmentation
簡(jiǎn)介:一個(gè)基于高分辨率網(wǎng)絡(luò)的圖像分割模型,支持多尺度融合和多分支特征提取,可用于處理高分辨率圖像。
8. TensorFlow-Segmentation- https://github.com/divamgupta/image-segmentation-keras
簡(jiǎn)介:一個(gè)使用TensorFlow框架實(shí)現(xiàn)的圖像分割庫(kù),提供了多種經(jīng)典的分割網(wǎng)絡(luò)模型,簡(jiǎn)單易用。
9. PyTorch-Segmentation- https://github.com/qubvel/segmentation_models.pytorch
簡(jiǎn)介:一個(gè)使用PyTorch框架實(shí)現(xiàn)的圖像分割庫(kù),支持多個(gè)經(jīng)典的分割網(wǎng)絡(luò)模型和多種損失函數(shù),適用于各種應(yīng)用場(chǎng)景。
10. Semantic-Segmentation-Suite- https://github.com/GeorgeSeif/Semantic-Segmentation-Suite
簡(jiǎn)介:一個(gè)基于深度卷積神經(jīng)網(wǎng)絡(luò)的圖像分割工具包,支持多個(gè)分割網(wǎng)絡(luò)模型和多種損失函數(shù),具有高效和易用的特點(diǎn)。
11. PaddleSeg-https://github.com/PaddlePaddle/PaddleSeg
簡(jiǎn)介:PaddleSeg是百度維護(hù)的一個(gè)基于PaddlePaddle開(kāi)發(fā)的有關(guān)圖像分割任務(wù)的一個(gè)高性能部署的工具集,里面包含眾多性能優(yōu)異的圖像分割算法。12. mmsegmentation-https://github.com/open-mmlab/mmsegmentation
簡(jiǎn)介: mmsegmentation是一個(gè)基于Pytorch構(gòu)建的一個(gè)開(kāi)源語(yǔ)義分割庫(kù),里面集成了很多經(jīng)典的語(yǔ)義分割算法,研究人員可以用來(lái)快速的開(kāi)發(fā)自己新的算法。
審核編輯 :李倩
-
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4771瀏覽量
100778 -
算法
+關(guān)注
關(guān)注
23文章
4612瀏覽量
92910 -
AI
+關(guān)注
關(guān)注
87文章
30898瀏覽量
269130
原文標(biāo)題:AI算法說(shuō)-圖像分割
文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論