在圖像處理領(lǐng)域,雖然近年來的新模型層出不窮,但在大多數(shù)的下游任務(wù)中,例如目標(biāo)檢測、語義分割,依舊還是用ResNet或其變體作為骨干網(wǎng)絡(luò)。在今年4月中旬,亞馬遜團(tuán)隊提出了“ResNet最強(qiáng)改進(jìn)版”網(wǎng)絡(luò)——ResNeSt。ResNeSt可以直接應(yīng)用到已有的主流模型中,顯著提高 Mask R-CNN,Cascade R-CNN 等模型的結(jié)果(~3%)。1. 簡要介紹CNN 基礎(chǔ)網(wǎng)絡(luò)的發(fā)展歷程
2. 近期神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索的發(fā)展,以及與下游應(yīng)用的脫節(jié)
3. 拆分注意力:注意力機(jī)制與多通道網(wǎng)絡(luò)的融合
4. ImageNet上的分類表現(xiàn),以及遷移學(xué)習(xí)的效果
5. 總結(jié)與未來工作展望
本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請
點(diǎn)擊舉報。