久久精品精选,精品九九视频,www久久只有这里有精品,亚洲熟女乱色综合一区
    分享

    NeurIPS 2022 Spotlight|生成式語義分割新范式GMMSeg,可同時處理閉集和開集識別

     天承辦公室 2023-04-03 發(fā)布于江蘇

    機器之心專欄

    作者:梁琛

    GMMSeg 同時具備判別式與生成式模型的優(yōu)勢,在語義分割領(lǐng)域,首次實現(xiàn)使用單一的模型實例,在閉集 (closed-set) 及開放世界 (open-world) 分割任務(wù)中同時取得先進性能。
    當(dāng)前主流語義分割算法本質(zhì)上是基于 softmax 分類器的判別式分類模型,直接對 p (class|pixel feature) 進行建模,而完全忽略了潛在的像素數(shù)據(jù)分布,即 p (class|pixel feature)。這限制了模型的表達能力以及在 OOD (out-of-distribution) 數(shù)據(jù)上的泛化性。

    在最近的一項研究中,來自浙江大學(xué)、悉尼科技大學(xué)、百度研究院的研究者們提出了一種全新的語義分割范式 —— 基于高斯混合模型(GMM)的生成式語義分割模型 GMMSeg。

    圖片


    • 論文鏈接:https:///abs/2210.02025
    • 代碼鏈接:https://github.com/leonnnop/GMMSeg

    GMMSeg 對像素與類別的聯(lián)合分布進行建模,通過 EM 算法在像素特征空間學(xué)習(xí)高斯混合分類器 (GMM Classifier),以生成式范式對每一個類別的像素特征分布進行精細捕捉。與此同時,GMMSeg 采用判別式損失來端到端的優(yōu)化深度特征提取器。這使得 GMMSeg 同時具備判別式與生成式模型的優(yōu)勢。

    實驗結(jié)果表明,GMMSeg 在多種分割網(wǎng)絡(luò)架構(gòu) (segmentation architecture) 及骨干網(wǎng)絡(luò) (backbone network) 上都獲得了性能提升;同時,無需任何后處理或微調(diào),GMMSeg 可以直接被應(yīng)用到異常分割 (anomaly segmentation) 任務(wù)。

    迄今為止,這是第一次有語義分割方法能夠使用單一的模型實例,在閉集 (closed-set) 及開放世界 (open-world) 條件下同時取得先進性能。這也是生成式分類器第一次在大規(guī)模視覺任務(wù)中展示出優(yōu)勢。

    判別式 v.s. 生成式分類器

    圖片


    在深入探討現(xiàn)有分割范式以及所提方法之前,這里簡略引入判別式以及生成式分類器的概念。

    假設(shè)有數(shù)據(jù)集合 D,其包含成對的樣本 - 標(biāo)簽對 (x, y);分類器的最終目標(biāo)是預(yù)測樣本分類概率 p (y|x)。分類方法可以被分為兩類:判別式分類器以及生成式分類器。

    • 判別式分類器:直接建模條件概率 p (y|x);其僅僅學(xué)習(xí)分類的最優(yōu)決策邊界,而完全不考慮樣本本身的分布,也因此無法反映樣本的特性。
    • 生成式分類器:首先建模聯(lián)合概率分布 p (x, y),而后通過貝葉斯定理推導(dǎo)出分類條件概率;其顯式地對數(shù)據(jù)本身的分布進行建模,往往針對每一個類別都會建立對應(yīng)的模型。相比于判別式分類器,其充分考慮了樣本的特征信息。

    圖片


    主流語義分割范式:判別式 Softmax 分類器

    目前主流的逐像素分割模型大多使用深度網(wǎng)絡(luò)抽取像素特征,而后使用 softmax 分類器進行像素特征分類。其網(wǎng)絡(luò)架構(gòu)由兩部分組成:

    第一部分為像素特征提取器,其典型架構(gòu)為編碼器 - 解碼器對,通過將 RGB 空間的像素輸入映射到 D - 維度的高維空間獲取像素特征。

    第二部分為像素分類器,即主流的 softmax 分類器;其將輸入的像素特征編碼為 C - 類實數(shù)輸出(logits),而后利用 softmax 函數(shù)對輸出(logits)歸一化并賦予概率意義,即利用 logits 計算像素分類的后驗概率:

    圖片


    最終,由兩個部分構(gòu)成的完整模型將通過 cross-entropy 損失進行端到端的優(yōu)化:

    圖片


    在此過程中,模型忽略了像素本身的分布,而直接對像素分類預(yù)測的條件概率 p (c|x) 進行估計。由此可見,主流的 softmax 分類器本質(zhì)為判別式分類器

    判別式分類器結(jié)構(gòu)簡單,并因其優(yōu)化目標(biāo)直接針對于縮小判別誤差,往往能夠取得優(yōu)異的判別性能。然而與此同時,其有一些尚未引起已有工作重視的致命缺點,極大的影響了 softmax 分類器的分類性能及泛化性:

    • 首先,其僅僅對決策邊界進行建模;完全忽視了像素特征的分布,也因而無法對每一個類別的具體特性進行建模與利用;削弱了其泛化性以及表達能力。
    • 其次,其使用單一的參數(shù)對 (w,b) 建模一個類別;換言之,softmax 分類器依賴于單模分布 (unimodality) 假設(shè);這種極強且過于簡化的假設(shè)在實際應(yīng)用往往不能成立,這導(dǎo)致其只能夠取得次優(yōu)的性能。
    • 最后,softmax 分類器的輸出無法準(zhǔn)確反映真實的概率意義;其最終的預(yù)測只能作為與其他類別進行比較時的參考。這也正是大量主流分割模型較難檢測出 OOD 輸入的根本原因。

    針對這些問題,作者認為應(yīng)該對目前主流的判別式范式進行重新思考,并在本文中給出了對應(yīng)的方案:生成式語義分割模型 ——GMMSeg。

    生成式語義分割模型:GMMSeg

    作者從生成式模型的角度重新梳理了語義分割過程。相較于直接建模分類概率 p (c|x),生成式分類器對聯(lián)合分布 p (x, c) 進行建模,而后使用貝葉斯定理推導(dǎo)出分類概率:

    圖片


    其中,出于泛化性考慮,類別先驗 p (c) 往往被設(shè)置為 uniform 分布,而如何對像素特征的類別條件分布 p (x|c) 進行建模,就成為了當(dāng)前的首要問題。

    在本文中,即 GMMSeg 中,采用高斯混合模型對 p (x|c) 進行建模,其形式如下:

    圖片


    在分模型 (component) 數(shù)目不受限的情況下,高斯混合模型理論上能夠擬合任意的分布,因而十分優(yōu)雅且強大;同時,其混合模型的本質(zhì)也使得建模多模分布 (multimodality),即建模類內(nèi)變化,變得可行。基于此,本文采用極大似然估計來優(yōu)化模型的參數(shù):

    圖片


    其經(jīng)典的解法為 EM 算法,即通過交替執(zhí)行 E-M - 兩步逐步優(yōu)化 F - 函數(shù):

    圖片

    圖片


    具體到高斯混合模型的優(yōu)化;EM 算法實際上在 E - 步中,對數(shù)據(jù)點屬于每一個分模型的概率進行了重新估計。換言之,其相當(dāng)于在 E - 步中對像素點進行了軟聚類 (soft clustering);而后,在 M - 步,即可利用聚類結(jié)果,再次更新模型參數(shù)。

    圖片


    然而在實際應(yīng)用中,作者發(fā)現(xiàn)標(biāo)準(zhǔn)的 EM 算法收斂緩慢,且最終結(jié)果較差。作者懷疑是由于 EM 算法對參數(shù)優(yōu)化初始值過于敏感,導(dǎo)致其難以收斂到更優(yōu)的局部極值點。受到近期一系列基于最優(yōu)傳輸理論 (optimal transport) 的聚類算法的啟發(fā),作者對混合分模型分布額外引入了一個 uniform 先驗:

    圖片


    相應(yīng)的,參數(shù)優(yōu)化過程中的 E - 步驟被轉(zhuǎn)化為約束優(yōu)化問題,如下:

    圖片


    這個過程可以被直觀的理解成,對聚類過程引入了一個均分的約束:在聚類過程中,數(shù)據(jù)點能夠被一定程度上均勻的分配給每一個分模型。引入此約束之后,此優(yōu)化過程就等價于下式列出的最優(yōu)傳輸問題:

    圖片


    此式可以利用 Sinkhorn-Knopp 算法快速求解。而整個改進過后的優(yōu)化過程被命名為 Sinkhorn EM,其被一些理論工作證明,具有與標(biāo)準(zhǔn) EM 算法相同的全局最優(yōu)解,且更不容易陷入局部最優(yōu)解。

    在線混合 (Online Hybrid) 優(yōu)化

    之后,在完整的優(yōu)化過程中,文章中使用了一種在線混合 (online hybrid) 的優(yōu)化模式:通過生成式 Sinkhorn EM,在逐漸更新的特征空間中,不斷對高斯混合分類器進行優(yōu)化;而對于完整框架中另一個部分,即像素特征提取器部分,則基于生成式分類器的預(yù)測結(jié)果,使用判別式 cross-entropy 損失進行優(yōu)化。兩個部分交替優(yōu)化,互相對齊,使得整個模型緊密耦合,并且能夠進行端到端的訓(xùn)練:

    圖片


    在此過程中,特征提取部分只通過梯度反向傳播優(yōu)化;而生成式分類器部分,則只通過 SinkhornEM 進行優(yōu)化。正是這種交替式優(yōu)化的設(shè)計,使得整個模型能夠緊湊的融合在一起,并同時繼承來自判別式以及生成式模型的優(yōu)勢。

    圖片


    最終,GMMSeg 受益于其生成式分類的架構(gòu)以及在線混合的訓(xùn)練策略,展示出了判別式 softmax 分類器所不具有的優(yōu)勢:

    • 其一,受益于其通用的架構(gòu),GMMSeg 與大部分主流分割模型兼容,即與使用 softmax 進行分類的模型兼容:只需要替換掉判別式 softmax 分類器,即可無痛增強現(xiàn)有模型的性能。
    • 其二,由于 hybrid 訓(xùn)練模式的應(yīng)用,GMMSeg 兼并了生成式以及判別式分類器的優(yōu)點,且一定程度上解決了 softmax 無法建模類內(nèi)變化的問題;使得其判別性能大大提升。
    • 其三,GMMSeg 顯式建模了像素特征的分布,即 p (x|c);GMMSeg 能夠直接給出樣本屬于各個類別的概率,這使得其能夠自然的處理未曾見過的 OOD 數(shù)據(jù)。

    實驗結(jié)果

    實驗結(jié)果表明,不論是基于 CNN 架構(gòu)或者是基于 Transformer 架構(gòu),在廣泛使用的語義分割數(shù)據(jù)集 (ADE20K, Cityscapes, COCO-Stuff) 上,GMMSeg 都能夠取得穩(wěn)定且明顯的性能提升。

    圖片


    圖片


    除此之外,在異常分割任務(wù)中,無需對在閉集任務(wù),即常規(guī)語義分割任務(wù)中訓(xùn)練完畢的模型做任何的修改,GMMSeg 即可在所有通用評價指標(biāo)上,超越其他需要特殊后處理的方法。

    圖片


    圖片

    圖片


      本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
      轉(zhuǎn)藏 分享 獻花(0

      0條評論

      發(fā)表

      請遵守用戶 評論公約

      類似文章 更多

      主站蜘蛛池模板: 久久99热只有频精品8| 日本一区二区三区专线| 国产精品久久露脸蜜臀| 精品国产人妻一区二区三区久久| 夜色爽爽影院18禁妓女影院| 欧美人成精品网站播放| 国产又色又刺激高潮视频| 亚洲熟妇AV一区二区三区漫画| 少妇无套内射中出视频| 欧美国产成人精品二区芒果视频 | 99精品视频在线观看婷婷| 最近2019中文字幕大全视频1| 开心一区二区三区激情| 手机看片AV永久免费| 精品无码久久久久久尤物| 国精品午夜福利视频不卡| 亚洲一区二区三区在线观看精品中文| 成人爽A毛片在线视频淮北| 国产午夜视频在线观看| 男同精品视频免费观看网站| 国产激情视频在线观看的| 久久无码中文字幕免费影院| 亚洲综合在线一区二区三区| 成人片黄网站色大片免费观看| 116美女极品a级毛片| 强奷漂亮少妇高潮伦理| 日韩一区在线中文字幕| 97人妻人人做人碰人人爽| 亚洲色大成网站WWW久久| 少妇人妻AV无码专区| 欧美饥渴熟妇高潮喷水| 少妇人妻偷人偷人精品| 天干天干天啪啪夜爽爽AV| 2021国产精品视频网站| 亚洲人成色99999在线观看| 欧美日韩一区二区综合| 苍井空毛片精品久久久| 无码国产精品一区二区免费I6| 99RE6在线视频精品免费下载| 人妻系列中文字幕精品| 色综合久久久无码中文字幕|