0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI算法說(shuō)-圖像分割

新機(jī)器視覺 ? 來(lái)源:新機(jī)器視覺 ? 2023-05-17 14:44 ? 次閱讀

1、簡(jiǎn)介

a1a4b4f2-f474-11ed-90ce-dac502259ad0.gif

圖像分割任務(wù),即算法需要預(yù)測(cè)出圖片中的每一個(gè)像素點(diǎn)的類別。它解決了“圖像中每一個(gè)像素點(diǎn)是什么類別的問題”。上圖所示了一個(gè)自動(dòng)駕駛場(chǎng)景下的圖像分割效果,圖片中相同的顏色表示相同的類別,不同的顏色表示不同的類別。

圖像分割方法種類繁多,包括傳統(tǒng)的基于閾值、邊緣和區(qū)域的方法,以及近年來(lái)基于深度學(xué)習(xí)的方法,如全卷積網(wǎng)絡(luò)(FCN)、編碼器-解碼器網(wǎng)絡(luò)、視覺注意力機(jī)制、對(duì)抗生成網(wǎng)絡(luò)等。在圖像分割任務(wù)中,需注意逐像素標(biāo)注方式和實(shí)例級(jí)別標(biāo)注方式的區(qū)別,并需要針對(duì)不同的應(yīng)用場(chǎng)景選擇適合的評(píng)價(jià)指標(biāo)和數(shù)據(jù)集。

2、發(fā)展歷程

a1c18384-f474-11ed-90ce-dac502259ad0.png

2014年,J. Long, E. Shelhamer, and T. Darrell等人發(fā)表了“Fully convolutional networks for semantic segmentation”了算法(https://arxiv.org/pdf/2001.05566.pdf),即FCN算法。FCN的核心思想是將傳統(tǒng)的全連接層轉(zhuǎn)變?yōu)榫矸e層,并且采用反卷積技術(shù)將最后一層卷積輸出映射回原始圖像大小。

2015年,O. Ronneberger, P. Fischer, and T. Brox等人發(fā)表了“U-net: Convolutional networks for biomedical image segmentation”,即U-net算法。U-net的特點(diǎn)是通過(guò)一系列卷積、池化和反卷積操作實(shí)現(xiàn)了圖像分割,并在特征提取過(guò)程中保留了高分辨率的細(xì)節(jié)信息。

2016年,V. Badrinarayanan, A. Kendall, and R. Cipolla等人發(fā)表了“Segnet: A deep convolutional encoder-decoder architecture for image segmentation”,即SegNet算法。SegNet的特點(diǎn)是采用了輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),并設(shè)計(jì)了一種基于池化索引的解碼器,能夠?qū)崿F(xiàn)快速而準(zhǔn)確的圖像分割。

2017年,L.-C. Chen, G. Papandreou, I. Kokkinos, K. Murphy, and A. L. Yuille等人發(fā)表了“Semantic image segmentation with deep convolutional nets and fully connected crfs”,即DeepLab算法,后續(xù)陸續(xù)推出DeepLabV2和DeepLabV3等算法。該算法首次在CNN中引入了完全連接的條件隨機(jī)場(chǎng)(CRFs),該CRF模型建模了圖像的全局上下文,通過(guò)允許標(biāo)簽之間的相互作用來(lái)獲得更準(zhǔn)確的分割結(jié)果。

2018年,L.-C. Chen, A. Hermans, G. Papandreou, F. Schroff, P. Wang, and H. Adam等人發(fā)表了“Masklab: Instance segmentation by refining object detection with semantic and direction features”,即Mask-Lab算法。該算法的主要思想是,在卷積神經(jīng)網(wǎng)絡(luò)中添加實(shí)例感知模塊,以分離不同對(duì)象的實(shí)例。

2019年,Y. Yuan, X. Chen, and J. Wang等人發(fā)表了“Object-contextual representations for semantic segmentation”,即HRNet算法。HRNet算法的主要思想是在多個(gè)分辨率上進(jìn)行特征提取,同時(shí)跨層連接以消除分辨率差異和信息損失。

2020年,B. Zoph, G. Ghiasi, T.-Y. Lin, Y. Cui, H. Liu, E. D. Cubuk, and Q. V. Le等人發(fā)表了“Rethinking pre-training and self-training”,即EfficientNet+NAS-FPN算法。該算法的核心思想是在無(wú)標(biāo)簽數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練和自訓(xùn)練,從而提高有標(biāo)簽數(shù)據(jù)的分割性能。

2020年之后,圖像分割算法的性能基本達(dá)到了精度天花板,很多學(xué)者轉(zhuǎn)做實(shí)例分割和全景分割。

3、應(yīng)用場(chǎng)景

a1d8131a-f474-11ed-90ce-dac502259ad0.gif

自動(dòng)駕駛-目標(biāo)分割可以應(yīng)用在自動(dòng)駕駛場(chǎng)景中完成靜態(tài)障礙物和動(dòng)態(tài)障礙物的精準(zhǔn)分割,從而構(gòu)建一個(gè)語(yǔ)義地圖傳遞給后面的規(guī)劃和控制模塊。

交互標(biāo)定-利用目標(biāo)算法可以基于幾個(gè)點(diǎn)快速的標(biāo)注目標(biāo)物體,這樣可以極大的提升人員的標(biāo)注成本。

人像摳圖-人像摳圖功能在我們的日常生活中有著大量的應(yīng)用,最常用的就是各種遠(yuǎn)程會(huì)議軟件上面的摳圖功能。該算法基本能達(dá)到扣頭發(fā)絲的精度。

醫(yī)學(xué)圖像分析-圖像分割算法可以針對(duì)人體各器官進(jìn)行精細(xì)的分割,協(xié)助醫(yī)生完成一些醫(yī)學(xué)診斷的問題。該功能已經(jīng)在一些醫(yī)院有所應(yīng)用。

4、算法類別

a229991a-f474-11ed-90ce-dac502259ad0.png

對(duì)于圖像分割任務(wù)而言,我們可以將其細(xì)分為語(yǔ)義分割、實(shí)例分割和全景分割三種類別。如上圖所示,輸入的是一張街拍場(chǎng)景的圖片。語(yǔ)義分割任務(wù)只能區(qū)分不同的類別,無(wú)法區(qū)別相同的類別。實(shí)例分割任務(wù)不僅可以區(qū)分不同的類別,也可以區(qū)分相同類別中的不同個(gè)數(shù),如圖片中的行人和車輛 ,不同的人用不同的顏色進(jìn)行顯示。全景分割則是語(yǔ)義分割和實(shí)例分割的交集。

語(yǔ)義分割是區(qū)分同類物體的分割任務(wù),實(shí)例分割是區(qū)分不同實(shí)例的分割任務(wù),而全景分割則同時(shí)達(dá)到這兩個(gè)目標(biāo)。全景分割既可以區(qū)分彼此相關(guān)的物體,也可以區(qū)分它們?cè)趫D像中的位置,這使其非常適合對(duì)圖像中所有類別的目標(biāo)進(jìn)行分割。

5、經(jīng)典算法剖析

5.1 UNet算法詳解

a24af4f2-f474-11ed-90ce-dac502259ad0.png

算法簡(jiǎn)介:

UNet是一種基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分割算法,它于2015年由Olaf Ronneberger等人提出。與FCN等分割算法不同,UNet采用了一種新的網(wǎng)絡(luò)結(jié)構(gòu),能夠更好地處理物體邊緣和小的物體。

創(chuàng)新點(diǎn):

UNet算法的創(chuàng)新點(diǎn)在于其網(wǎng)絡(luò)結(jié)構(gòu),即將傳統(tǒng)的編碼器-解碼器架構(gòu)與跳躍連接技術(shù)相結(jié)合,形成了一個(gè)“U”形的網(wǎng)絡(luò)結(jié)構(gòu)。UNet算法流程:1. 圖像編碼:首先,通過(guò)卷積層實(shí)現(xiàn)圖像特征的提取和縮小,構(gòu)建編碼器。采用類似于VGG網(wǎng)絡(luò)的結(jié)構(gòu),通過(guò)不斷重復(fù)卷積、下采樣的過(guò)程,將輸入的圖像逐漸縮小,并提取出不同尺度的特征。2. 圖像解碼:構(gòu)建解碼器,是為了逐步將圖像還原回原始的分辨率。UNet算法中的解碼器采用了鏡像反卷積操作,逐步還原特征圖的尺寸,也通過(guò)不斷重復(fù)卷積、上采樣的過(guò)程,將特征融合到更高的分辨率上。3. 跳躍連接:UNet算法引入了跳躍連接(skip connection),將編碼層和對(duì)應(yīng)的解碼層中的特征圖進(jìn)行連接。這種方式能夠?qū)⒌讓拥恼Z(yǔ)義信息(例如邊緣信息)直接提供給解碼器,有利于保留物體邊緣信息,同時(shí)也有利于消除某些不必要的噪聲。4. 輸出結(jié)果:通過(guò)在UNet網(wǎng)絡(luò)的最后一層卷積后接一個(gè)含有類別數(shù)+1個(gè)通道的全連接層,并使用softmax函數(shù)得到像素分類的概率值,就可以生成語(yǔ)義分割圖了??偟膩?lái)說(shuō),UNet算法采用了跳躍連接,能夠更好地保留圖像的信息,使得算法更適用于分割小物體和物體之間的邊界。該算法在實(shí)際應(yīng)用中被廣泛使用,特別是在醫(yī)學(xué)圖像分割領(lǐng)域,如肝臟分割和胰腺分割等。

5.2Mask-RCNN算法詳解

a2644cf4-f474-11ed-90ce-dac502259ad0.png

簡(jiǎn)介:

Mask RCNN是一種深度學(xué)習(xí)圖像分割算法,由FAIR(Facebook AI Research)于2018年提出。它是RCNN系列算法的最新版本,在Faster RCNN和Mask RCNN的基礎(chǔ)上加入了全新的分割網(wǎng)絡(luò)。算法創(chuàng)新點(diǎn):1. Mask RCNN是第一種能夠?qū)崿F(xiàn)目標(biāo)檢測(cè)和實(shí)例分割的統(tǒng)一框架算法,不需要額外的分割網(wǎng)絡(luò); 2. Mask RCNN通過(guò)于Faster RCNN相似的兩個(gè)分支結(jié)構(gòu),檢測(cè)出每個(gè)物體的對(duì)象邊界框,并且對(duì)其中的每個(gè)對(duì)象實(shí)現(xiàn)語(yǔ)義分割; 3. Mask RCNN創(chuàng)新性地加入了RoIAlign模塊,可以以像素級(jí)別的準(zhǔn)確度提取ROI特征; 4. Mask RCNN在訓(xùn)練時(shí)采用了多尺度訓(xùn)練和水平翻轉(zhuǎn)等數(shù)據(jù)增強(qiáng)技術(shù),提高了魯棒性; 5. Mask RCNN利用了實(shí)例分割結(jié)果來(lái)輔助目標(biāo)檢測(cè),提高了檢測(cè)的效率和準(zhǔn)確性。算法步驟:1. 首先,在特征提取器(如ResNet)的基礎(chǔ)上,添加一個(gè)RoI pooling層,用來(lái)提取每個(gè)BoundingBox內(nèi)的特征向量; 2. 然后,進(jìn)入到Proposal Generation 階段,使用RPN來(lái)產(chǎn)生多個(gè)區(qū)域框,對(duì)每個(gè)區(qū)域框進(jìn)行候選區(qū)域的分類(物體還是非物體)和邊界框回歸(Bounding Box Regression); 3. 在Proposal Refinement(即Detection)階段,結(jié)合Proposal Generation的結(jié)果,利用Fast RCNN的方法,先將每個(gè)候選區(qū)域的特征向量轉(zhuǎn)換成一個(gè)固定尺寸的特征圖(由RoI pooling提?。?,然后通過(guò)全連接層來(lái)實(shí)現(xiàn)分類和位置回歸; 4. 最后,加入Mask RCNN的核心部分,即Mask Generation階段。我們以RoIAlign代替RoI Pooling,對(duì)每個(gè)RoI內(nèi)的坐標(biāo)點(diǎn)都采用雙線性濾波,從而在ROI范圍內(nèi)等距采樣得到RoIAlign Feature Map。使用一個(gè)分支來(lái)預(yù)測(cè)分割,并對(duì)每個(gè)ROI生成一個(gè)mask.

6、評(píng)估指標(biāo)

6.1 定量指標(biāo)1.精確度(Accuracy):分割正確的像素?cái)?shù)占總像素?cái)?shù)的比例,即TP+TN/(TP+TN+FP+FN),其中TP為真正例,TN為真反例,F(xiàn)P為假正例,F(xiàn)N為假反例。2.召回率(Recall):正確分割出的像素?cái)?shù)占實(shí)際應(yīng)分割像素?cái)?shù)的比例,即TP/(TP+FN)。3.精度(Precision):正確分割出的像素?cái)?shù)占分割出的像素總數(shù)的比例,即TP/(TP+FP)。4.F1值(F1-score):綜合考慮Precision和Recall,即2*Precision*Recall/(Precision+Recall)。5.歐拉距離(Euclidean distance):分割圖像與真實(shí)分割圖像之間的歐拉距離。6.交并比(IoU):分割圖像與真實(shí)分割圖像之間的重疊像素?cái)?shù)占并集像素?cái)?shù)的比例,即TP/(TP+FP+FN)。7.像素錯(cuò)誤率(Pixel error rate):錯(cuò)誤分割像素?cái)?shù)占總像素?cái)?shù)的比例,即FP+FN/(TP+TN+FP+FN)。8.平均準(zhǔn)確度(Mean accuracy):分類正確的像素?cái)?shù)占各類應(yīng)分割像素?cái)?shù)的平均值,即(∑TP_i)/(∑(TP_i+FP_i)),其中i為類別。9.平均交并比(Mean IoU):所有類別的IoU的平均值,即(∑TP_i)/(∑(TP_i+FP_i+FN_i)),其中i為類別。

a2761326-f474-11ed-90ce-dac502259ad0.png

6.2 定性指標(biāo)

1.視覺效果(Visual quality):分割結(jié)果能否符合人的感受,如邊界清晰、區(qū)域連續(xù)等。2.時(shí)間復(fù)雜度(Time complexity):計(jì)算分割結(jié)果所需的時(shí)間和計(jì)算復(fù)雜度,對(duì)于實(shí)時(shí)應(yīng)用來(lái)說(shuō)尤為重要。3.空間復(fù)雜度(Space complexity):占用內(nèi)存的大小,對(duì)于大型圖片和數(shù)據(jù)量來(lái)說(shuō)尤為重要。4.可擴(kuò)展性(Scalability):算法的擴(kuò)展性,能否適應(yīng)不同規(guī)模的數(shù)據(jù)集和不同的場(chǎng)景。5.魯棒性(Robustness):算法的穩(wěn)定性和適應(yīng)性,對(duì)于噪聲和異常情況的處理能力。

a283e302-f474-11ed-90ce-dac502259ad0.png

7、開源數(shù)據(jù)集

1. Cityscapes-https://www.cityscapes-dataset.com/

Cityscapes是一個(gè)針對(duì)城市街景圖像分割的大規(guī)模數(shù)據(jù)集,包含了街景照片、標(biāo)記為19個(gè)不同類別的圖像分割或?qū)嵗指畹榷喾N圖像數(shù)據(jù)類型。

2. COCO-http://cocodataset.org/#overview

COCO是一個(gè)通用的目標(biāo)檢測(cè)、圖像分割和實(shí)例分割數(shù)據(jù)集,包含了各種場(chǎng)景下的圖像,涵蓋了多種物體類別。

3. PASCAL VOC-http://host.robots.ox.ac.uk/pascal/VOC/

PASCAL VOC是一個(gè)流行的計(jì)算機(jī)視覺數(shù)據(jù)集,包含了20多個(gè)物體類別的圖像樣本,以及這些物體的位置標(biāo)記。

4. ADE20K-https://groups.csail.mit.edu/vision/datasets/ADE20K/

ADE20K是一個(gè)基于社區(qū)貢獻(xiàn)的大規(guī)模場(chǎng)景理解和圖像分割數(shù)據(jù)集,其中包含了超過(guò)20,000張圖像和類別標(biāo)注。

5. BSDS500-https://www2.eecs.berkeley.edu/Research/Projects/CS/vision/grouping/segbench/

BSDS500是一個(gè)用于邊緣檢測(cè)、分割和顯著性檢測(cè)的數(shù)據(jù)集,包含了幾百?gòu)垐D像和像素級(jí)標(biāo)注。

6. CamVid-http://mi.eng.cam.ac.uk/research/projects/VideoRec/CamVid/

CamVid是一個(gè)針對(duì)道路場(chǎng)景的圖像分割數(shù)據(jù)集,包含了對(duì)不同類別的道路元素(如汽車、行人等)的標(biāo)記。

7. SUN RGB-D-https://rgbd.cs.princeton.edu/

SUN RGB-D是一個(gè)室內(nèi)場(chǎng)景3D圖像分割數(shù)據(jù)集,其包括了帶深度信息的RGB圖像,用于分割物體、家具、地板等不同場(chǎng)景中的元素。

8. MS COCO Panoptic Segmentation-https://cocodataset.org/#panoptic-2018

MS COCO Panoptic Segmentation是一個(gè)多種物體檢測(cè)圖像分類和實(shí)例分割任務(wù)的數(shù)據(jù)集。其包含80類物體和133k張圖像。

a29dab3e-f474-11ed-90ce-dac502259ad0.png

8、熱門論文

1. Fully Convolutional Networks for Semantic Segmentation-https://arxiv.org/abs/1411.4038 簡(jiǎn)介:本文提出了一種基于完全卷積網(wǎng)絡(luò)的圖像分割方法,能夠同時(shí)獲得像素級(jí)別的分類和空間信息。

2. U-Net: Convolutional Networks for Biomedical Image Segmentation-https://arxiv.org/abs/1505.04597 簡(jiǎn)介:該文介紹了一種特殊結(jié)構(gòu)的U-Net卷積神經(jīng)網(wǎng)絡(luò)用于生物醫(yī)學(xué)圖像分割。U-Net結(jié)構(gòu)的主要特點(diǎn)是在解碼階段引入了跳躍連接,從而提高了分割的質(zhì)量。

3. Mask R-CNN-https://arxiv.org/abs/1703.06870 簡(jiǎn)介:Mask R-CNN是一種基于Faster R-CNN的圖像分割模型,相比于其他模型,Mask R-CNN能夠在不損失精度的情況下在檢測(cè)任務(wù)上同時(shí)實(shí)現(xiàn)像素級(jí)別的分割。

4. DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs-https://arxiv.org/abs/1606.00915 簡(jiǎn)介:本文提出了一種語(yǔ)義圖像分割方法DeepLab,該方法通過(guò)引入擴(kuò)張卷積和CRF的全連接層,能夠提高分割結(jié)果的準(zhǔn)確性。

5. DenseNet: Densely Connected Convolutional Networks-https://arxiv.org/abs/1608.06993 簡(jiǎn)介:本文介紹了一種新型的卷積神經(jīng)網(wǎng)絡(luò)DenseNet,并將其成功應(yīng)用于圖像分類和物體檢測(cè)等任務(wù)中。DenseNet的主要特點(diǎn)是將每個(gè)層的輸入與前面所有層的輸出相連接,從而提高了信息流的利用效率。

6. FC-DenseNet: Fully Convolutional DenseNets for Semantic Segmentation-https://arxiv.org/abs/1611.09326 簡(jiǎn)介:FC-DenseNet是一種基于DenseNet的圖像分割模型,通過(guò)將DenseNet的結(jié)構(gòu)應(yīng)用于分割任務(wù)中,從而提高了分割的準(zhǔn)確性和效率。

7. PSPNet: Pyramid Scene Parsing Network-https://arxiv.org/abs/1612.01105 簡(jiǎn)介:本文提出了一種新的分割模型PSPNet,該模型引入了金字塔池化模塊,能夠在不同尺度下提取特征信息,并增加了局部和全局上下文的信息。

8. Attention U-Net: Learning Where to Look for the Pancreas-https://arxiv.org/abs/1804.03999 簡(jiǎn)介:Attention U-Net是一種關(guān)注梯度信息的全卷積網(wǎng)絡(luò),它通過(guò)自適應(yīng)上下文注意力機(jī)制,可以更加準(zhǔn)確地實(shí)現(xiàn)器官分割任務(wù)。

9. Squeeze-and-Excitation Networks-https://arxiv.org/abs/1709.01507 簡(jiǎn)介:本文提出了一種新型的卷積神經(jīng)網(wǎng)絡(luò)Squeeze-and-Excitation Networks(SENet),該網(wǎng)絡(luò)通過(guò)增加逐通道的注意力機(jī)制,提高了信息的利用效率和精度。

10. UNet++: A Nested U-Net Architecture for Medical Image Segmentation-https://arxiv.org/abs/1807.10165 簡(jiǎn)介:UNet++是一種基于U-Net的嵌套結(jié)構(gòu)圖像分割方法,通過(guò)逐級(jí)連接不同大小的U-Net,可以更加準(zhǔn)確地獲取不同尺度的特征信息。

a2a90ce0-f474-11ed-90ce-dac502259ad0.png

9、熱門倉(cāng)庫(kù)

1. Mask R-CNN- https://github.com/matterport/Mask_RCNN

簡(jiǎn)介:一個(gè)基于Faster R-CNN的全卷積神經(jīng)網(wǎng)絡(luò),用于對(duì)圖像中目標(biāo)進(jìn)行實(shí)例分割,支持多方向的邊界框和掩膜生成。

2. DeepLab- https://github.com/tensorflow/models/tree/master/research/deeplab

簡(jiǎn)介:一個(gè)基于深度卷積神經(jīng)網(wǎng)絡(luò)的神經(jīng)圖像分割框架,支持多尺度和多特征融合,能處理大尺度和高分辨率圖像。

3. U-Net- https://github.com/zhixuhao/unet

簡(jiǎn)介:一個(gè)專用于醫(yī)學(xué)圖像分割的神經(jīng)網(wǎng)絡(luò)模型,結(jié)構(gòu)簡(jiǎn)單,訓(xùn)練效果優(yōu)秀,已廣泛應(yīng)用于醫(yī)學(xué)圖像分析領(lǐng)域。

4. FCN- https://github.com/shelhamer/fcn.berkeleyvision.org

簡(jiǎn)介:一個(gè)基于Fully Convolutional Network的全卷積神經(jīng)網(wǎng)絡(luò)模型,用于對(duì)圖像進(jìn)行像素級(jí)別的分割,支持多分辨率輸入和多尺度融合。

5. PSPNet- https://github.com/hszhao/PSPNet

簡(jiǎn)介:一個(gè)基于Pyramid Scene Parsing Network的圖像分割模型,通過(guò)多尺度和多分辨率的金字塔池化來(lái)獲取圖像的全局和局部信息,進(jìn)行像素級(jí)別的分割。

6. Mask-RCNN-Benchmark- https://github.com/facebookresearch/maskrcnn-benchmark

簡(jiǎn)介:一個(gè)由Facebook Research開發(fā)的Mask R-CNN庫(kù),使用PyTorch框架實(shí)現(xiàn),支持多GPU并行訓(xùn)練和測(cè)試,訓(xùn)練速度快、效果好。

7. HRNet-Semantic-Segmentation- https://github.com/HRNet/HRNet-Semantic-Segmentation

簡(jiǎn)介:一個(gè)基于高分辨率網(wǎng)絡(luò)的圖像分割模型,支持多尺度融合和多分支特征提取,可用于處理高分辨率圖像。

8. TensorFlow-Segmentation- https://github.com/divamgupta/image-segmentation-keras

簡(jiǎn)介:一個(gè)使用TensorFlow框架實(shí)現(xiàn)的圖像分割庫(kù),提供了多種經(jīng)典的分割網(wǎng)絡(luò)模型,簡(jiǎn)單易用。

9. PyTorch-Segmentation- https://github.com/qubvel/segmentation_models.pytorch

簡(jiǎn)介:一個(gè)使用PyTorch框架實(shí)現(xiàn)的圖像分割庫(kù),支持多個(gè)經(jīng)典的分割網(wǎng)絡(luò)模型和多種損失函數(shù),適用于各種應(yīng)用場(chǎng)景。

10. Semantic-Segmentation-Suite- https://github.com/GeorgeSeif/Semantic-Segmentation-Suite

簡(jiǎn)介:一個(gè)基于深度卷積神經(jīng)網(wǎng)絡(luò)的圖像分割工具包,支持多個(gè)分割網(wǎng)絡(luò)模型和多種損失函數(shù),具有高效和易用的特點(diǎn)。

11. PaddleSeg-https://github.com/PaddlePaddle/PaddleSeg

簡(jiǎn)介:PaddleSeg是百度維護(hù)的一個(gè)基于PaddlePaddle開發(fā)的有關(guān)圖像分割任務(wù)的一個(gè)高性能部署的工具集,里面包含眾多性能優(yōu)異的圖像分割算法。12. mmsegmentation-https://github.com/open-mmlab/mmsegmentation

簡(jiǎn)介: mmsegmentation是一個(gè)基于Pytorch構(gòu)建的一個(gè)開源語(yǔ)義分割庫(kù),里面集成了很多經(jīng)典的語(yǔ)義分割算法,研究人員可以用來(lái)快速的開發(fā)自己新的算法。

a2c12c6c-f474-11ed-90ce-dac502259ad0.png

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4717

    瀏覽量

    99998
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4551

    瀏覽量

    92017
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    28875

    瀏覽量

    266204

原文標(biāo)題:AI算法說(shuō)-圖像分割

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    基于GAC模型實(shí)現(xiàn)交互式圖像分割的改進(jìn)算法

    基于GAC模型實(shí)現(xiàn)交互式圖像分割的改進(jìn)算法提出了一種改進(jìn)的交互式圖像分割算法。采用全變分去噪模型
    發(fā)表于 09-19 09:19

    基于改進(jìn)遺傳算法圖像分割方法

    基于改進(jìn)遺傳算法圖像分割方法提出一種應(yīng)用于圖像分割的改進(jìn)遺傳算法,
    發(fā)表于 09-19 09:36

    免疫克隆SAR圖像分割算法

    由于存在相干斑噪聲的影響,使得常規(guī)的圖像分割技術(shù)應(yīng)用于SAR 圖像時(shí),效果往往較差。該文提出一種新人工免疫系統(tǒng)SAR 圖像分割
    發(fā)表于 11-13 11:36 ?16次下載

    圖像分割—基于圖的圖像分割

    圖像分割—基于圖的圖像分割圖像分割—基于圖的圖像
    發(fā)表于 11-19 16:17 ?0次下載

    一種改進(jìn)的圖像分割算法分析

    針對(duì)傳統(tǒng)閾值分割算法的一些缺點(diǎn),通過(guò)將數(shù)字形態(tài)學(xué)與閾值分割算法相互結(jié)合提出了一種改進(jìn)的閾值分割算法
    發(fā)表于 11-03 09:47 ?3次下載
    一種改進(jìn)的<b class='flag-5'>圖像</b><b class='flag-5'>分割</b><b class='flag-5'>算法</b>分析

    基于天空分割的單幅圖像去霧算法

    針對(duì)暗通道先驗(yàn)算法在天空區(qū)域失效和復(fù)原圖像色彩變暗的問題,提出一種基于天空分割圖像去霧算法。首先,采用基于邊緣檢測(cè)的
    發(fā)表于 11-24 16:28 ?4次下載

    基于粒子群FODPSO算法圖像分割

    圖像分割主要用于提取用戶感興趣的目標(biāo),是圖像分類和識(shí)別的基礎(chǔ)。采用一種基于分?jǐn)?shù)階達(dá)爾文粒子群算法圖像
    發(fā)表于 11-25 10:48 ?11次下載

    基于像素聚類進(jìn)行圖像分割算法

    B型心臟超聲圖像分割是計(jì)算心功能參數(shù)前重要的一步。針對(duì)超聲圖像的低分辨率影響分割精度及基于模型的分割算法
    發(fā)表于 12-06 16:44 ?0次下載
    基于像素聚類進(jìn)行<b class='flag-5'>圖像</b><b class='flag-5'>分割</b>的<b class='flag-5'>算法</b>

    一種新的彩色圖像分割算法

    本文提出一種新的結(jié)合分水嶺與種子區(qū)域生成、區(qū)域合并的彩色圖像分割算法。首先將RGB顏色空間轉(zhuǎn)換成HSI間,應(yīng)用分水嶺算法對(duì)圖像進(jìn)行初始化
    發(fā)表于 12-14 14:41 ?1次下載
    一種新的彩色<b class='flag-5'>圖像</b><b class='flag-5'>分割</b><b class='flag-5'>算法</b>

    圖像分割圖像邊緣檢測(cè)

     圖像分割的研究多年來(lái)一直受到人們的高度重視,至今提出了各種類型的分割算法。Pal把圖像分割
    發(fā)表于 12-19 09:29 ?1.1w次閱讀
    <b class='flag-5'>圖像</b><b class='flag-5'>分割</b>和<b class='flag-5'>圖像</b>邊緣檢測(cè)

    圖像分割算法的深入研究

    的基礎(chǔ)。其研究多年來(lái)一直受到人們的高度重視,也提出了數(shù)以千計(jì)的不同算法。雖然這些算法大都在不同程度上取得了一定的成功,但是圖像分割問題還遠(yuǎn)遠(yuǎn)沒有解決,這方面的研究仍然面臨很多挑戰(zhàn)。由于
    發(fā)表于 12-20 15:21 ?4次下載
    <b class='flag-5'>圖像</b><b class='flag-5'>分割</b><b class='flag-5'>算法</b>的深入研究

    基于Contourlet域下的聲吶圖像分割算法

    水下環(huán)境復(fù)雜多變,導(dǎo)致聲吶技術(shù)成像后的圖像質(zhì)量差,影響目標(biāo)識(shí)別。為此,提出一種基于 Contourlet域下多尺度高斯馬爾可夫隨機(jī)場(chǎng)(GMRF)模型的水平集聲吶圖像分割算法。采用
    發(fā)表于 06-15 11:43 ?5次下載

    改進(jìn)自適應(yīng)GACV的水下圖像分割算法研究

    改進(jìn)自適應(yīng)GACV的水下圖像分割算法研究(通信電源技術(shù)20年第13期)-基于改進(jìn)自適應(yīng)GACV的水下圖像分割
    發(fā)表于 09-22 15:32 ?11次下載
    改進(jìn)自適應(yīng)GACV的水下<b class='flag-5'>圖像</b><b class='flag-5'>分割</b><b class='flag-5'>算法</b>研究

    遺傳算法的基本原理 基于遺傳算法圖像分割

      摘要:遺傳算法是對(duì)生物進(jìn)化論中自然選擇和遺傳學(xué)機(jī)理中生物進(jìn)化過(guò)程的模擬來(lái)計(jì)算最優(yōu)解的方法。遺傳算法具有眾多的優(yōu)點(diǎn),如魯棒性、并行性、自適應(yīng)性和快速收斂,可以應(yīng)用在圖像處理技術(shù)領(lǐng)域中圖像
    發(fā)表于 07-18 16:04 ?1次下載

    圖像分割算法原理及工作流程

    基于深度學(xué)習(xí)的圖像分割算法屬于圖像處理領(lǐng)域最高層次的圖像理解范疇。所謂圖像
    的頭像 發(fā)表于 08-18 15:48 ?1797次閱讀
    <b class='flag-5'>圖像</b><b class='flag-5'>分割</b><b class='flag-5'>算法</b>原理及工作流程