免费视频淫片aa毛片_日韩高清在线亚洲专区vr_日韩大片免费观看视频播放_亚洲欧美国产精品完整版

打開APP
userphoto
未登錄

開通VIP,暢享免費(fèi)電子書等14項(xiàng)超值服

開通VIP
2019年的語義分割指南
11 篇論文告訴你語義分割的最新進(jìn)展和入門指南。

原標(biāo)題 | A 2019 Guide to Semantic Segmentation

翻 譯 | 張曉彬(浙江大學(xué))、had_in(電子科技大學(xué))、愛曼紐·西蒙(東南大學(xué))、BBuf(西南科技大學(xué))

編 輯 | Pita

語義分割是指將圖像中的每個(gè)像素歸于類標(biāo)簽的過程,這些類標(biāo)簽可以包括一個(gè)人、汽車、鮮花、一件家具等。
我們可以將語義分割認(rèn)為是像素級(jí)別的圖像分類。例如,在有許多汽車的圖像中,分割會(huì)將所有對(duì)象標(biāo)記為汽車對(duì)象。然后,一個(gè)稱為實(shí)例分割的模型能夠標(biāo)記一個(gè)出現(xiàn)在圖像中的物體的獨(dú)立實(shí)例。這種分割在計(jì)算對(duì)象數(shù)量的應(yīng)用程序中非常有用,例如計(jì)算商城的行人流量。
它的一些主要應(yīng)用是在自動(dòng)駕駛、人機(jī)交互、機(jī)器人和照片編輯/創(chuàng)意工具中。例如,語義分割在汽車自動(dòng)駕駛和機(jī)器人技術(shù)中是至關(guān)重要的,因?yàn)閷?duì)于一個(gè)模型來說,了解其所處環(huán)境中的語義信息是非常重要的。

圖源:http://www.cs.toronto.edu/~tingwuwang/semantic_segmentation.pdf


我們來看看一些涵蓋最先進(jìn)的構(gòu)建語義分割模型方法的研究論文,即:
  • Weakly- and Semi-Supervised Learning of a Deep Convolutional Network for Semantic Image Segmentation (用于語義分割的弱監(jiān)督和半監(jiān)督的深度神經(jīng)網(wǎng)絡(luò))

  • Fully Convolutional Networks for Semantic Segmentation (用于語義分割的全卷積神經(jīng)網(wǎng)絡(luò))

  • U-Net: Convolutional Networks for Biomedical Image Segmentation  (用于生物醫(yī)學(xué)圖像的語義分割卷積神經(jīng)網(wǎng)絡(luò))

  • The One Hundred Layers Tiramisu: Fully Convolutional DenseNets for Semantic Segmentation (用于語義分割的全卷積DenseNet)

  • Multi-Scale Context Aggregation by Dilated Convolutions (基于擴(kuò)張卷積的多尺度上下文聚合)

  • DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs(DeepLab: 使用深度神經(jīng)網(wǎng)絡(luò),空洞卷積,和全連接CRF做語義分割的網(wǎng)絡(luò))

  • Rethinking Atrous Convolution for Semantic Image Segmentation(語義分割中的空洞卷積的再思考)

  • Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation( 空間金字塔池化模塊和編碼-解碼結(jié)構(gòu)用于語義分割的深度網(wǎng)絡(luò)結(jié)構(gòu).)

  • FastFCN: Rethinking Dilated Convolution in the Backbone for Semantic Segmentation(Fast FCN:對(duì)語義分割分割后端的空洞卷積的再思考)

  • Improving Semantic Segmentation via Video Propagation and Label Relaxation(通過視頻傳播和標(biāo)簽松弛改善語義分割)

  • Gated-SCNN: Gated Shape CNNs for Semantic Segmentation(門控-SCNN: 用于語義分割的門控形狀卷積神經(jīng)網(wǎng)絡(luò))

以上文章鏈接可點(diǎn)擊文末閱讀原文訪問。


01. 用于語義圖像分割的深度神經(jīng)網(wǎng)絡(luò)弱和半監(jiān)督學(xué)習(xí)(ICCV,2015)

這篇文章提出了一種解決方法,用于面對(duì)深度卷積網(wǎng)絡(luò)中處理弱標(biāo)記數(shù)據(jù)的難題、以及處理良好標(biāo)記與未適當(dāng)標(biāo)記數(shù)據(jù)結(jié)合。

本文應(yīng)用了一個(gè)深度CNNs與全連接條件隨機(jī)場(chǎng)的組合。

用于語義分割的DCNN弱和半監(jiān)督學(xué)習(xí)(https://arxiv.org/abs/1502.02734)

在PASCAL VOC分割基準(zhǔn)中,這個(gè)模型給出了超過70%的平均IoU。這種模型的一個(gè)主要難題是它在訓(xùn)練時(shí)需要在像素層次標(biāo)記的圖像。

圖源:https://arxiv.org/pdf/1502.02734.pdf

這篇文章的主要貢獻(xiàn)在于:

  • 引入弱監(jiān)督和半監(jiān)督設(shè)定都適用的期望最大化算法來用于邊界框或圖像層次的訓(xùn)練;

  • 證明弱與強(qiáng)標(biāo)記的組合能夠改善性能,在合并MSCOCO數(shù)據(jù)集和PASCAL數(shù)據(jù)集的標(biāo)記后,論文作者在PASCAL VOC2012上獲得73.9%的IoU;

  • 證明通過合并少量像素級(jí)標(biāo)記圖像和大量邊框或圖像級(jí)標(biāo)注圖像獲得了更好的性能。


圖源:https://arxiv.org/pdf/1502.02734.pdf


02. 用于語義分割的全卷積網(wǎng)絡(luò)(PAMI,2016)

用于語義分割的全卷積網(wǎng)絡(luò)(https://arxiv.org/abs/1605.06211)

這篇文章提出的模型在PASCAL VOC 2012上取得了67.2%的平均IU。

全連接網(wǎng)絡(luò)輸入任意大小的圖像,生成一個(gè)對(duì)應(yīng)空間維度的輸出。在這個(gè)模型中,ILSVRC分類器被轉(zhuǎn)換成一個(gè)全連接網(wǎng)絡(luò),并使用逐像素?fù)p失和網(wǎng)絡(luò)內(nèi)上采樣強(qiáng)化來進(jìn)行密集預(yù)測(cè),之后對(duì)分割的訓(xùn)練就通過fine-tuning完成。Fine-tuning是在整個(gè)網(wǎng)絡(luò)上進(jìn)行反向傳播完成的。


圖源:https://arxiv.org/pdf/1605.06211.pdf


03. U-Net:用于生物醫(yī)學(xué)圖像分割的卷積網(wǎng)絡(luò)

在生物醫(yī)學(xué)圖像處理中,獲得圖像中每個(gè)細(xì)胞的類別標(biāo)簽至關(guān)重要。而生物醫(yī)學(xué)任務(wù)中最大的挑戰(zhàn)就在于難以獲得數(shù)以千計(jì)的圖像來用于訓(xùn)練。

U-Net:用于醫(yī)學(xué)圖像分割的卷積網(wǎng)絡(luò)(https://arxiv.org/abs/1505.04597)

這篇文章構(gòu)建在全卷積層之上,并將其修改使其在一些訓(xùn)練圖像上有效并產(chǎn)出更精確的分割。


圖源:https://arxiv.org/abs/1505.04597

因?yàn)橹荒塬@得很少的訓(xùn)練數(shù)據(jù),這個(gè)模型在已有數(shù)據(jù)上應(yīng)用彈性變形來對(duì)數(shù)據(jù)增強(qiáng)。就如上面圖1中所示,網(wǎng)絡(luò)架構(gòu)由左側(cè)的收縮路徑和右側(cè)的膨脹路徑組成。

收縮路徑由兩個(gè) 3x3 卷積組成,每個(gè)卷積后面都跟一個(gè)修正線性單元和一個(gè)用于下采樣的 2x2 最大池化。每個(gè)下采樣階段都多使特征通道數(shù)加倍。膨脹路徑步驟中包含一個(gè)特征通道的上采樣。這后面跟著將特征通道數(shù)減半的 2x2 上卷積。最后一層是一個(gè)將成分特征向量映射到要求類別數(shù)的 1x1 卷積。


圖源:https://arxiv.org/abs/1505.04597

在這個(gè)模型中,訓(xùn)練使用輸入圖像——它們的分割圖,和一個(gè)Caffe實(shí)現(xiàn)的隨機(jī)梯度下降完成。數(shù)據(jù)增強(qiáng)用于在使用很少的訓(xùn)練數(shù)據(jù)時(shí)教會(huì)網(wǎng)絡(luò)達(dá)到所要求的魯棒性和不變性。模型在一個(gè)實(shí)驗(yàn)中達(dá)到了0.92的平均IoU。


圖源:https://arxiv.org/abs/1505.04597

04. 100層Tiramisu:用于語義分割的全卷積DenseNets(2017)

DenseNets背后的思想是使每一層以前向傳播的方式連接到所有層會(huì)使網(wǎng)絡(luò)更易于訓(xùn)練并更精確。

100層Tiramisu:用于語義分割的全卷積DenseNets(https://arxiv.org/abs/1611.09326)

模型結(jié)構(gòu)構(gòu)建在dense塊的下采樣和上采樣路徑中,下采樣路徑有2個(gè)Transitions Down(TD)而上采樣路徑有兩個(gè)Transitions Up(TU)。圓圈和箭頭表示網(wǎng)絡(luò)內(nèi)的連接模式。


圖源:https://arxiv.org/pdf/1611.09326.pdf

這篇文章的主要貢獻(xiàn)在于:

  • 擴(kuò)展DenseNet結(jié)構(gòu)到全卷積網(wǎng)絡(luò)來用于語義分割;

  • 提出dense網(wǎng)絡(luò)中的上采樣路徑比其他上采樣路徑性能更好;

  • 證明這個(gè)網(wǎng)絡(luò)能夠在標(biāo)準(zhǔn)基準(zhǔn)上產(chǎn)生最優(yōu)結(jié)果。

這個(gè)模型在CamVid數(shù)據(jù)集上達(dá)到了88%的全局準(zhǔn)確率。



圖源:https://arxiv.org/pdf/1611.09326.pdf

05. 擴(kuò)張卷積的多尺度背景聚合(ICLR,2016)

在這篇論文中,開發(fā)了一種卷積網(wǎng)絡(luò)模塊,它可以在不損失分辨率的情況下融合多尺度的上下文信息。然后該模塊可以以任何分辨率插入現(xiàn)有架構(gòu)。該模塊基于擴(kuò)張卷積。

擴(kuò)張卷積的多尺度上下文聚合(https://arxiv.org/abs/1511.07122)

該模塊在Pascal VOC 2012數(shù)據(jù)集上進(jìn)行了測(cè)試。它證明向現(xiàn)有語義分段體系結(jié)構(gòu)添加上下文模塊可提高其準(zhǔn)確性。

圖源:https://arxiv.org/abs/1511.07122

經(jīng)過實(shí)驗(yàn)訓(xùn)練的前端模塊在VOC-2012驗(yàn)證集上實(shí)現(xiàn)了69.5%的平均IoU,在測(cè)試機(jī)上實(shí)現(xiàn)了71.3%的平均IoU。該模型對(duì)不同物體的訓(xùn)練精度如下所示。

圖源:https://arxiv.org/abs/1511.07122


06. DeepLab: 基于深度卷積網(wǎng)絡(luò),空洞卷積和全連接CRFs的圖像語義分割(TPAMI, 2017)

這篇文章對(duì)基于深度學(xué)習(xí)的語義分割工作的貢獻(xiàn)如下:

  • 提出將上采樣濾波器用于密集預(yù)測(cè)任務(wù)。

  • 提出空間金字塔池化(ASPP),用于在多個(gè)尺度上的目標(biāo)分割

  • 通過使用DCNNs改進(jìn)目標(biāo)邊界的定位。  

DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully… (https://arxiv.org/abs/1606.00915)

這篇文章提出的DeepLab系統(tǒng)在PASCAL VOC-2012語義圖像分割任務(wù)上實(shí)現(xiàn)了79.7%的mIOU。


本文針對(duì)深度CNNs在語義分割應(yīng)用中面臨的主要挑戰(zhàn),包括:

  • 由Max-Pooling和下采樣的組合導(dǎo)致的特征分辨率的降低。  

  • 目標(biāo)的多尺度問題。  

  • DCNN空間變換的不變性導(dǎo)致定位精度降低,而以對(duì)象為導(dǎo)向的分類器又需要具有空間變換不變性。 

圖源:https://arxiv.org/abs/1606.00915

空洞卷積可以通過對(duì)濾波器插入零點(diǎn)進(jìn)行上采樣來實(shí)現(xiàn),也可以對(duì)輸入特征map進(jìn)行稀疏采樣來實(shí)現(xiàn)。第二種方法需要對(duì)輸入特征圖通過一個(gè)等于空洞卷積率r的因子進(jìn)行下采樣,并將其去除間隔行生成r^2的縮減分辨率map,每種可能的轉(zhuǎn)換為r×r分辨率的縮減變換均對(duì)應(yīng)一個(gè)分辨率map。然后,對(duì)得到的特征map應(yīng)用標(biāo)準(zhǔn)卷積操作,將提取到的特征與圖像的原始分辨率進(jìn)行融合。 

圖源:https://arxiv.org/abs/1606.00915


    07. 重新思考用于語義圖像分割的Atrous卷積(2017)

    本文討論了使用DCNNs進(jìn)行語義分割的兩個(gè)挑戰(zhàn)(前面提及);應(yīng)用連續(xù)池化操作出現(xiàn)的特征分辨率降低和對(duì)象在多尺度出現(xiàn)。

    重新思考用于語義圖像分割的Atrous卷積(https://arxiv.org/abs/1706.05587)

    為了解決第一個(gè)問題,文章建議使用Atrous卷積,也成為擴(kuò)張卷積。它提出通過使用Atrous卷積來擴(kuò)大視野,因此包含了多尺度上下文,來解決第二個(gè)問題。

    圖源:https://arxiv.org/pdf/1706.05587.pdf

    在沒有DenseCRF后處理的情況下,本文的'DeepLabv3'在PASCAL VOC 2012測(cè)試集上達(dá)到了85.7%的準(zhǔn)確率。

    圖源:https://arxiv.org/pdf/1706.05587.pdf

    08. 基于空洞可分離卷積編解碼器的圖像語義分割(ECCV, 2018)

    本文的方法“DeepLabv3+”,在無需對(duì)PASCAL VOC 2012和Cityscapes數(shù)據(jù)集進(jìn)行任何后期處理的情況下,測(cè)試集性能分別達(dá)到89.0%和82.1%。該模型是DeepLabv3的擴(kuò)展,通過添加一個(gè)簡(jiǎn)單的解碼器模塊來細(xì)化分割結(jié)果。 

    基于空洞可分離卷積編解碼器的圖像語義分割(https://paperswithcode.com/paper/encoder-decoder-with-atrous-separable)

    圖源:https://arxiv.org/pdf/1802.02611v3.pdf

    本文實(shí)現(xiàn)了兩種使用空間金字塔池化模塊進(jìn)行語義分割的神經(jīng)網(wǎng)絡(luò)。一種方法通過融合在不同分辨率下的特征來捕獲上下文信息,而另一種方法則著眼于獲得清晰的目標(biāo)邊界。 


    圖源:https://arxiv.org/pdf/1802.02611v3.pdf

    09. FastFCN:重新思考語義分割模型主干中的擴(kuò)張卷積(2019)

    文章提出了一個(gè)聯(lián)合上采樣模塊,命名為聯(lián)合金字塔上采樣(JPU),以取代消耗大量時(shí)間和內(nèi)存的擴(kuò)張卷積。它的工作原理是將獲取高分辨率圖像的任務(wù)轉(zhuǎn)化為聯(lián)合上采樣問題。

    重新思考語義分割模型主干中的擴(kuò)張卷積(https://paperswithcode.com/paper/fastfcn-rethinking-dilated-convolution-in-the)

    該方法在Pascal Context數(shù)據(jù)集上實(shí)現(xiàn)53.13%的mIoU性能,運(yùn)行速度提高了三倍。

    圖源:https://arxiv.org/pdf/1903.11816v1.pdf

    該方法實(shí)現(xiàn)了全連接網(wǎng)絡(luò)(FCN)作為主干,同時(shí)應(yīng)用JPU對(duì)低分辨率特征映射進(jìn)行上采樣,從而生成高分辨率的特征映射。用JPU代替擴(kuò)張的卷積不會(huì)導(dǎo)致任何性能損失。

    圖源:https://arxiv.org/pdf/1903.11816v1.pdf

    10. 通過視頻傳播法和標(biāo)簽松弛法優(yōu)化語義分割(CVPR, 2019)

    本文提出了一種基于視頻的方法,通過合成新的訓(xùn)練樣本來擴(kuò)展訓(xùn)練集。這是為了提高語義分割網(wǎng)絡(luò)的準(zhǔn)確性。這種方法探究了視頻預(yù)測(cè)模型預(yù)測(cè)未來幀的能力,以便預(yù)測(cè)未來幀的標(biāo)簽。
    通過視頻傳播法和標(biāo)記松弛法優(yōu)化語義分割(https://paperswithcode.com/paper/improving-semantic-segmentation-via-video)
    來源:https://arxiv.org/pdf/1812.01593v3.pdf
    利用合成數(shù)據(jù)集對(duì)分割網(wǎng)絡(luò)進(jìn)行訓(xùn)練,提高了預(yù)測(cè)精度。本文所提出的方法在Cityscapes數(shù)據(jù)集上可以達(dá)到83.5%的mIoUs,在CamVid數(shù)據(jù)集上可以達(dá)到82.9%的mIoUs。  
    圖源:https://arxiv.org/pdf/1812.01593v3.pdf
    本文提出了兩種預(yù)測(cè)未來標(biāo)簽的方法:
    • 標(biāo)簽傳播法(LP)通過將傳播的標(biāo)簽與真實(shí)的未來幀進(jìn)行配對(duì),以創(chuàng)建新的訓(xùn)練樣本。 

    • 圖像-標(biāo)簽混合傳播法(JP)通過將傳播標(biāo)簽與相應(yīng)的傳播圖像進(jìn)行配對(duì),以創(chuàng)建新的訓(xùn)練樣本。 

    本文主要有三個(gè)命題;利用視頻預(yù)測(cè)模型將標(biāo)簽傳播到相鄰幀,引入圖像-標(biāo)簽混合傳播法來處理圖像的不對(duì)齊問題,并通過最大化聯(lián)合類概率似然函數(shù)來松弛one-hot標(biāo)簽的訓(xùn)練。
    圖源:https://arxiv.org/pdf/1812.01593v3.pdf

    11. 門控 SCNN:用于語義分段的門控形狀CNNs(2019)

    這篇文章是語義分割模塊的最新進(jìn)展。作者提出了一種雙流CNN架構(gòu)。在此體系結(jié)構(gòu)中,形狀信息作為單獨(dú)的分支處理。該形狀流僅處理邊界相關(guān)信息。這由模型的門控卷積層(GCL)和本地監(jiān)督強(qiáng)制執(zhí)行。

    門控SCNN:用于語義分段的門控形狀CNNs(2019,https://arxiv.org/abs/1907.05740)

    圖源:https://arxiv.org/abs/1907.05740

    該模型在mloU上的表現(xiàn)優(yōu)于DeepLab-v3+ 1.5%,在F界面得分上優(yōu)于4%。該模型已使用Citycapes基準(zhǔn)進(jìn)行評(píng)估。在較小和較薄物體上,該模型在IoU上實(shí)現(xiàn)7%的改進(jìn)。

    下表顯示了Gated-SCNN和其他模型的性能比較


    圖源:https://arxiv.org/abs/1907.05740

    總結(jié)

    我們現(xiàn)在應(yīng)該跟上一些最常見的,以及集中最近在各種環(huán)境中執(zhí)行語義分割的技術(shù)。

    上面的文章/摘要包含其代碼實(shí)現(xiàn)的鏈接。我們很高興看到您在測(cè)試后獲得的結(jié)果。


    Via https://heartbeat.fritz.ai/a-2019-guide-to-semantic-segmentation-ca8242f5a7fc

    封面圖來源:https://pixabay.com/photos/traffic-locomotion-roadway-mobility-3612474/
    本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)
    打開APP,閱讀全文并永久保存 查看更多類似文章
    猜你喜歡
    類似文章
    你需要關(guān)注的計(jì)算機(jī)視覺論文在這里!最新最全state-of-art論文,包含閱讀筆記
    圖像語義分割的工作原理和CNN架構(gòu)變遷
    2020年,那些「引爆」了機(jī)器學(xué)習(xí)社區(qū)的熱門論文、庫和基準(zhǔn)
    資源|「蜘蛛」來了!耶魯大學(xué)11名學(xué)生標(biāo)注完成大規(guī)模復(fù)雜跨域Text-to-SQL數(shù)據(jù)集Spider...
    忘掉PS吧!歡迎進(jìn)入修圖的神經(jīng)網(wǎng)絡(luò)時(shí)代
    一文看盡 CVPR 2022 最新 20 篇 Oral 論文
    更多類似文章 >>
    生活服務(wù)
    分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
    綁定賬號(hào)成功
    后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
    如果VIP功能使用有故障,
    可點(diǎn)擊這里聯(lián)系客服!

    聯(lián)系客服