女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

CVPR 2023中的領域適應: 通過自蒸餾正則化實現內存高效的CoTTA

jf_pmFSk4VX ? 來源:GiantPandaCV ? 2023-07-04 11:00 ? 次閱讀

CVPR 2023 中的領域適應: 通過自蒸餾正則化實現內存高效的 CoTTA

目錄

前言

內存比較

EcoTTA 實現

Memory-efficient Architecture

Self-distilled Regularization

實驗

分類實驗

分割實驗

總結

參考

前言

我們介紹了 CoTTA 方法,這次介紹的是基于它的優化工作:EcoTTA,被接受在 CVPR 2023 上。

推薦閱讀順序是:

CoTTA

本篇文章

DIGA

上一篇文章我們提到 CoTTA 的輸入是隨時間軸變化的數據(比如自動駕駛中不斷切換的天氣條件),且是測試伴隨訓練任務。所以,CoTTA 通常在內存有限的邊緣設備上進行,因此減少內存消耗至關重要。先前的 TTA 研究忽略了減少內存消耗的重要性。此外,上一篇文章也提到了長期適應通常會導致災難性的遺忘和錯誤積累,從而阻礙在現實世界部署中應用 TTA。

EcoTTA 包括解決這些問題的兩個組成部分。第一個組件是輕量級元網絡,它可以使凍結的原始網絡適應目標域。這種架構通過減少反向傳播所需的中間激活量來最大限度地減少內存消耗。第二個組成部分是自蒸餾正則化,它控制元網絡的輸出,使其與凍結的原始網絡的輸出不顯著偏離。這種正則化可以保留來自源域的知識,而無需額外的內存。這種正則化可防止錯誤累積和災難性遺忘,即使在長期的測試時適應中也能保持穩定的性能。

內存比較

首先,我們先看一下 EcoTTA 和其他方法的內存比較。下圖(a)表示在訓練過程中,與參數相比,激活的大小是主要的內存瓶頸。下圖(b)中,x 軸和 y 軸分別表示所有平均誤差和總內存消耗,包括參數和激活。對 CIFAR-C 數據集進行連續的在線適應,EcoTTA在消耗最少的內存的同時取得了最佳結果。這里我們發現,作者全文的實驗只對比了類 ResNet 架構,而 CoTTA 中性能最高的架構是 SegFormer。

a1596ef2-19b8-11ee-962d-dac502259ad0.png

EcoTTA 實現

關于相關工作的部分,我們已經在 CoTTA 中介紹過了。將 EcoTTA 的策略和其他方法(都是 TTA 的)對比如下圖,包括 TENT、EATA 和 CoTTA。TENT 和 EATA 更新了多個 BN 層,這需要存儲大量激活以進行梯度計算。這可能會導致內存問題,尤其是在內存有限的邊緣設備上。CoTTA 使用額外的持續適應策略來訓練整個網絡,這需要大量的內存和時間。相比之下,EcoTTA 要求通過僅更新幾層來最大限度地減少激活量。這減少了內存消耗,使其適用于內存有限的邊緣設備。

a19508c2-19b8-11ee-962d-dac502259ad0.png

下面我們關注 EcoTTA 兩個部分的實現。

Memory-efficient Architecture

假設模型中的第 i 個線性層由權重 W 和偏置 b 組成,該層的輸入特征和輸出特征分別為 fi 和 fi+1。給定 fi+1 = fiW + b 的前向傳播,從第 i+1 層到第 i 層的反向傳播和權重梯度分別制定為:

意味著需要更新權重 W 的可學習層必須存儲中間激活 fi 以計算權重梯度。相反,凍結層的反向傳播可以在不保存激活的情況下完成,只需要其權重 W。

相對于可學習參數,激活占據了訓練模型所需內存的大部分。基于這個事實,CoTTA 需要大量的內存(因為要更新整個 model)。另外,僅僅更新 BN 層中的參數(例如 TENT 和 EATA)并不是一種足夠有效的方法,因為它們仍然保存了多個 BN 層的大量中間激活。EcoTTA 提出了一種簡單而有效的方法,通過丟棄這些激活來顯著減少大量的內存占用。

a1ea0d4a-19b8-11ee-962d-dac502259ad0.png

在這里插入圖片描述

在部署之前,我們首先使用任何預訓練方法獲取一個預訓練模型。然后,我們將預訓練模型的編碼器分成 K 個部分,如上圖(a)所示。一個元網絡組由一個批歸一化層和一個卷積塊(ConvBN-Relu)組成,將輕量級元網絡附加到原始網絡的每個部分上,如上圖(b)所示。我們在源數據集上對元網絡進行預訓練,同時凍結原始網絡。這個預熱過程完成后,我們可以進行模型部署。強調一點,在測試時不需要源數據集 Ds,所以本質上還是 TTA 的范式。更詳細的元網絡組成如下:

a20def80-19b8-11ee-962d-dac502259ad0.png

在這里插入圖片描述

此外,我們需要預訓練模型的幾個分區。先前解決域偏移的 TTA 研究表明,相對于更新深層,更新淺層對于改善適應性能更為關鍵。受到這樣的發現啟發,假設預訓練模型的編碼器被劃分為模型分區因子 K(例如 4 或 5),我們將編碼器的淺層部分(即 Dense)相對于深層部分進行更多的劃分,表現如下表所示。

a21ee5a6-19b8-11ee-962d-dac502259ad0.png

在這里插入圖片描述

在部署期間,我們只對目標域適應元網絡,而凍結原始網絡。適應過程中,我們使用熵最小化方法對熵小于預定義閾值的樣本進行適應,計算方法如下面的公式所示,并使用自提出的正則化損失來防止災難性遺忘和錯誤累積。

a23c7f94-19b8-11ee-962d-dac502259ad0.png

在這里插入圖片描述

在第二個公式中,左右兩項分別表示適應損失(主要任務是適應目標域)和正則化損失。整體而言,EcoTTA 在內存使用方面比之前的工作更加高效,平均使用的內存比 CoTTA 和 TENT/EATA 少 82% 和 60%。

Self-distilled Regularization

標簽測試數據集 Dt 上的無監督損失往往會向模型提供錯誤的信號(即噪聲,,其中 是測試樣本的真實標簽)。使用無監督損失進行長期適應會導致過擬合(由于誤差累積)和災難性遺忘的問題。為了解決這些關鍵問題,EcoTTA 提出了一種自蒸餾正則化方法。如上圖(c)所示,對每個元網絡的第 k 組輸出 進行正則化,使其與凍結的原始網絡的第 k 部分輸出 保持接近。正則化損失使用平均絕對誤差(L1 Loss)進行計算,表達式如下:

由于原始網絡不會被更新,從中提取的輸出 , k~K 被認為包含了從源域學到的知識。利用這個事實,通過將元網絡的輸出 與原始網絡的輸出進行知識蒸餾的方式進行正則化。也就是說,防止適應模型與原始模型顯著偏離,可以避免災難性遺忘。通過保留源域知識和利用原始模型的類別區分度,避免誤差累積。值得注意的是,與先前的方法不同,自蒸餾正則化方法無需保存額外的原始網絡,它只需要很少的計算量和內存開銷。

實驗

分類實驗

下表是在 CIFAR-C 數據集上的錯誤率比較結果。包括連續 TTA 上處理了 15 種不同的損壞樣本后的平均錯誤率,并考慮了模型參數和激活大小所需的內存。其中,還使用了 AugMix 數據處理方法來增強模型的魯棒性。Source 表示未經過適應的預訓練模型。single domain的 TENT 是在適應到新的目標域時重置模型(因為這篇論文和 CoTTA 都是在 domian flow 的 setting 下考慮的,而不是 single domain),因此需要使用域標簽來指定目標域。

a2652340-19b8-11ee-962d-dac502259ad0.png

在這里插入圖片描述

下表是 ImageNet 到 ImageNet-C 的結果:

a2a9b65e-19b8-11ee-962d-dac502259ad0.png

在這里插入圖片描述

分割實驗

下表是分割實驗的對比結果,可以發現沒有和 CoTTA 比較,因為 EcoTTA 沒有用和 CoTTA 一樣的 backbone: Segformer,而是 ResNet family。這里我的考慮是,在 Segformer 上性能提高可以可能不明顯,并且 Segformer 的內存占用更大。

a2e9d888-19b8-11ee-962d-dac502259ad0.png

在這里插入圖片描述

總結

這個工作改進了 CoTTA 的性能并節省了大量內存,適用于內存有限的邊緣設備(例如,具有 512MB 的樹莓派和具有 4G B的 iPhone 13)。首先,提出了一種內存高效的架構,由原始網絡和元網絡組成。通過減少用于梯度計算的中間激活值,該架構所需的內存大小比先前的 TTA 方法要小得多。其次,在解決長期適應問題中,提出了自蒸餾正則化方法,以保留源知識并防止由于噪聲的無監督損失導致的錯誤累積。該方法通過控制元網絡的輸出與原始網絡的輸出沒有顯著偏離來實現。通過對多個數據集和主干網絡進行廣泛的實驗證明了 EcoTTA 的內存效率和 TTA 上的性能。

參考

https://arxiv.org/abs/2303.01904

https://mp.weixin.qq.com/s/kWzXWENTTBKHKZxKKECdlQ

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 內存
    +關注

    關注

    8

    文章

    3108

    瀏覽量

    74975
  • 架構
    +關注

    關注

    1

    文章

    527

    瀏覽量

    25848
  • 數據集
    +關注

    關注

    4

    文章

    1222

    瀏覽量

    25269

原文標題:CVPR 2023 中的領域適應: 通過自蒸餾正則化實現內存高效的 CoTTA

文章出處:【微信號:GiantPandaCV,微信公眾號:GiantPandaCV】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    在深度學習為什么要正則輸入?

    今天我們來講解一下為什么要正則輸入(也叫標準輸入)呢?
    的頭像 發表于 11-22 09:37 ?1.2w次閱讀
    在深度學習<b class='flag-5'>中</b>為什么要<b class='flag-5'>正則</b><b class='flag-5'>化</b>輸入?

    Linux系統通過預留物理內存實現ARM與FPGA高效通信的方法

    管理子系統管理。因此,需要預留一部分物理內存,使其不被內核管理。接下來將為大家詳細介紹在 Linux 系統通過預留物理內存實現 ARM 與
    的頭像 發表于 04-16 13:42 ?516次閱讀
    Linux系統<b class='flag-5'>中</b><b class='flag-5'>通過</b>預留物理<b class='flag-5'>內存</b><b class='flag-5'>實現</b>ARM與FPGA<b class='flag-5'>高效</b>通信的方法

    請問TV正則怎么求解微分

    TV正則怎么求解微分 需要代碼 可否指教一下 大神
    發表于 11-20 21:42

    一種基于機器學習的建筑物分割掩模自動正則和多邊形方法

    化處理,使其更加逼真,即有更多的直線型輪廓,在需要時構造直角。這是通過給定輸入圖像為真的概率的鑒別器和從鑒別器響應中學習創造更真實圖像的生成器之間的相互作用來實現的。最后,從正則的建
    發表于 09-01 07:19

    喜訊!華秋榮獲2023國產業數字百強榜企業

    全國優秀的產業數字領域的百強企業。同期位列“2023國產業數字百強榜”的還有阿里巴巴B2B、歐冶云商、國聯股份、匯通達、華能智鏈等行業
    發表于 12-04 09:58

    華秋榮獲2023國產業數字百強榜企業

    全國優秀的產業數字領域的百強企業。同期位列“2023國產業數字百強榜”的還有阿里巴巴B2B、歐冶云商、國聯股份、匯通達、華能智鏈等行業
    發表于 12-04 10:01

    適應正則項去除乘性噪聲

    文中通過:(1)取對數把乘性噪聲模型轉變成相加形模型;(2)改進正則項成為自適應擴散模型;(3)將數學模型應用于圖像處理的實踐當中。在解決了階梯效應的同時保持了圖像的邊緣。
    發表于 03-09 14:21 ?8次下載
    自<b class='flag-5'>適應</b><b class='flag-5'>正則</b><b class='flag-5'>化</b>項去除乘性噪聲

    dropout正則技術介紹

    dropout技術是神經網絡和深度學習模型的一種簡單而有效的正則方式。 本文將向你介紹dropout正則技術,并且教你如何在Keras中用Python將其應用于你的模型。 讀完本文
    發表于 10-10 10:38 ?2次下載

    基于正則超分辨率的自適應閾值去噪方法

    為了提高正則超分辨率技術在噪聲環境下的重建能力,對廣義總變分( GTV)正則超分辨率重建進行了擴展研究,提出了一種自適應閾值去噪的方法。首先,根據GTV
    發表于 11-30 11:26 ?0次下載

    適應正則活動輪廓模型

    針對Chan-Vese模型含有許多參數,分割時需要人為調整參數,耗費大量的人力和時間的問題,提出了一個自適應正則活動輪廓模型。首先,對Chan-Vese模型的數據項進行簡化;其次,使用改進的邊界
    發表于 12-18 16:05 ?0次下載

    詳解機器學習和深度學習常見的正則

    說到正則大家應該都不陌生,這個在機器學習和深度學習中都是非常常見的,常用的正則有L1正則
    的頭像 發表于 01-29 17:52 ?2516次閱讀
    詳解機器學習和深度學習常見的<b class='flag-5'>正則</b><b class='flag-5'>化</b>

    正則方法DropKey: 兩行代碼高效緩解視覺Transformer過擬合

    美圖影像研究院(MT Lab)與中國科學院大學在 CVPR 2023 上發表了一篇文章,提出一種新穎且即插即用的正則器 DropKey,該正則
    的頭像 發表于 04-17 11:35 ?1456次閱讀

    CoTTA的新方法:用于在非平穩環境下進行持續的測試時間適應

    參考 前言 Continual Test-Time 的領域適應CoTTA)在 CVPR 2022 上被提出,目的是在不使用任何源數據(source domain)的情況下,將源預訓
    的頭像 發表于 06-25 11:21 ?1921次閱讀
    <b class='flag-5'>CoTTA</b>的新方法:用于在非平穩環境下進行持續的測試時間<b class='flag-5'>適應</b>

    一種免反向傳播的 TTA 語義分割方法

    蒸餾正則實現內存高效CoTTA 推薦對
    的頭像 發表于 06-30 15:10 ?791次閱讀
    一種免反向傳播的 TTA 語義分割方法

    深度學習模型的過擬合與正則

    在深度學習的廣闊領域中,模型訓練的核心目標之一是實現對未知數據的準確預測。然而,在實際應用,我們經常會遇到一個問題——過擬合(Overfitting)。過擬合是指模型在訓練數據上表現優異,但在
    的頭像 發表于 07-09 15:56 ?1652次閱讀