久久精品精选,精品九九视频,www久久只有这里有精品,亚洲熟女乱色综合一区
    分享

    視覺 Transformer 的可視化|CVPR2021

     極市平臺 2021-03-07

    報道丨極市平臺

    極市導讀

     

    可視化對于Transformer的模型調試、驗證等過程都非常重要,FAIR的研究者開源了一種Transformer可視化新方法,能針對不同類呈現不同且準確的效果。 >>加入極市CV技術交流群,走在計算機視覺的最前沿

    近兩年,“Transformer”的熱潮從自然語言處理領域席卷至計算機視覺領域。Transformer及其衍生方法不僅是幾乎所有NLP基準測試中最先進的方法,還成為了傳統計算機視覺任務中的領先工具。在結果公布不久的CVPR2021中,與Transformer相關的工作數量也十分可觀。

    來自FAIR和以色列特拉維夫大學的學者在CVPR2021中發表了一篇名為“Transformer Interpretability Beyond Attention Visualization”的論文。在這篇論文中,作者提出了一種計算Transformer網絡結構相關性的新穎方法,首次實現Transformer的可視化能針對不同類呈現不同且準確的效果。

    該方法基于深度泰勒分解原理分配局部相關性,而后將相關性傳播到各層。與以往方法相比不同的是,它的傳播涉及注意層和殘差連接。與此同時,作者在最新的視覺Transformer網絡以及文本分類任務上進行了基準測試,證明了該方法相對于現有可解釋性方法的明顯優勢。

    目前,作者已經公布了該工作的開源代碼:

    代碼地址:https://github.com/hila-chefer/Transformer-Explainability
    論文鏈接:https:///abs/2012.09838

    論文簡介

    可視化對于Transformer的模型調試、驗證等過程都非常重要,而目前現有工作對于Transformer可視化的探索并不是很多。

    過去可視化Transformer模型常見的做法是,針對單個注意力層,將注意力視為相關性得分;另一種則是組合多個注意力層,簡單地平均獲得每個標記的注意力。但由于更深的層更具有語義,而每次應用自注意力時,每個標記都會積累額外的上下文,這會導致信號模糊,各層的不同作用被忽視,并使得不相關的標記被凸顯。

    Transformer嚴重依賴于殘差連接和注意力運算符,這兩者都涉及兩個激活圖的混合。此外,Transformer使用ReLU以外的其他非線性因素,這會同時帶來正向和負向的特征。由于存在非正值,如若處理不當,則殘差連接會導致數值的不穩定。

    針對上述問題,本文作者引入適用于正面和負面歸因的相對傳播規則,并提出了針對非參數層的歸一化項,如矩陣乘法。同時,整合注意力與相關性得分,并將結果整合到多個注意力模塊中。

    在實踐中,計算機視覺使用的許多可解釋性方法并不是特定于類的,即無論嘗試可視化的類是什么,即便對于包含多個對象的圖像,也會返回相同的可視化效果。因而特定于類的信號通常會因為圖像的顯著區域而變得模糊。本文的方法則設計提供了基于類的分離,這也是目前唯一能夠呈現此屬性的Transformer可視化方法。

    方法介紹

    本文采用基于LRP[1]的相關性來計算Transformer每一層中每個注意力層的得分,通過合并相關性和梯度信息,通過迭代消除負面影響,然后將它們整合到注意力圖中,得到自注意力模型特定于類的可視化。

    相關性和梯度

    為分類頭的類數,為要可視化的類,并傳播關于的相關性和梯度。將表示為層的輸入,其中是由層組成網絡中的層索引,是輸入,是輸出。通過鏈式規則,將梯度傳播到分類器的輸出

    表示該層在兩個張量上的操作。通常,這兩個張量是輸入特征圖和第層的權重。相關性傳播遵循通用的深度泰勒分解公式:

    非參數相關傳播

    Transformer模型中有兩個運算符涉及兩個特征圖張量的混合(與具有學習張量的特征圖相反):殘差連接和矩陣乘法。這兩個運算符需要通過兩個輸入張量傳播相關性。給定兩個張量,我們計算這些二進制運算符的相關性傳播如下:

    證明得到:

    相關性和梯度擴散

    為一個由模塊組成的Transformer模型,其中每一個模塊由自注意力,殘差連接以及附加的線性層和歸一化層組成。該模型將維數為,長度為的標記序列作為輸入,為類別輸出作特殊標記,輸出由分類標記向量計算出的長度為的分類概率向量。自注意模塊在輸入維度為的小空間上運行,為head數量。自注意模塊的定義如下:

    實驗與結果

    對于語言分類任務,作者使用基于BERT的模型作為分類器,假設最多512個標記,并使用分類標記作為分類頭的輸入。對于視覺分類任務,作者采用基于ViT的預訓練模型。輸入圖像尺寸為的所有不重疊色塊的序列,線性化圖層以生成向量序列。

    下圖給出了本文的方法與各種基線方法之間的直觀比較。可以看出,本文方法獲得了更加清晰一致的可視化。

    下圖顯示了帶有兩個對象的圖像,每個對象來自不同的類。可以看出,除GradCAM之外,所有方法對不同類都產生了相似的可視化效果,而本文方法則取得了兩個不同且準確的可視化效果,因而證明該方法是特定于類的。

    下表為在ImageNet驗證集上,預測類別和目標類別的正負擾動AUC結果。

    ImageNet分割數據集上的分割性能:

    本文方法不同消融方案性能:

      轉藏 分享 獻花(0

      0條評論

      發表

      請遵守用戶 評論公約

      類似文章 更多

      主站蜘蛛池模板: 午夜亚洲福利在线老司机| 欧美成人一卡二卡三卡四卡| 欧美亚洲人成网站在线观看| 最新国产精品好看的精品| 亚洲国产天堂久久综合226114| 爽爽影院免费观看| 最爽无遮挡行房视频| 欧洲中文字幕一区二区| 久久综合久中文字幕青草| 欧美极品色午夜在线视频| 国产精品福利自产拍久久| 亚洲国产无套无码AV电影| 亚洲精品无码久久毛片| 在线中文字幕国产一区| 久久国产福利播放| 国产乱子伦农村叉叉叉| 日日摸日日碰夜夜爽亚洲| a级黑人大硬长爽猛出猛进| 国产精品中文字幕视频| 国产日产欧产美韩系列麻豆| 欧美日韩中文国产一区发布| 国产乱子伦视频在线播放| 精品久久人人妻人人做精品| 国产睡熟迷奷系列网站| 无码AV免费永久免费永久专区| 女人张开腿让男人桶爽 | 亚洲国产日韩一区三区| 免费无码成人AV在线播放不卡 | 亚洲 制服 丝袜 无码| 欧美XXXX色视频在线观看| 爱性久久久久久久久| 国产AV无区亚洲AV麻豆| 亚洲色大成网站WWW尤物| 一本大道中文日本香蕉| 国产又爽又黄无码无遮挡在线观看| 亚洲熟妇自偷自拍另类| 久久综合伊人77777| 亚洲精品国产精品乱码视色| 国产尤物AV尤物在线看| 国产稚嫩高中生呻吟激情在线视频| 亚洲AV永久精品无码桃色|