女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

SparseViT:以非語義為中心、參數高效的稀疏化視覺Transformer

智能感知與物聯網技術研究所 ? 來源:智能感知與物聯網技術研 ? 2025-01-15 09:30 ? 次閱讀

背景簡介

隨著圖像編輯工具和圖像生成技術的快速發展,圖像處理變得非常方便。然而圖像在經過處理后不可避免的會留下偽影(操作痕跡),這些偽影可分為語義和非語義特征。因此目前幾乎所有的圖像篡改檢測模型(IML)都遵循“語義分割主干網絡”與“精心制作的手工制作非語義特征提取”相結合的設計,這種方法嚴重限制了模型在未知場景的偽影提取能力。

b60b7928-d0b2-11ef-9310-92fbcf53809c.png

論文標題: Can We Get Rid of Handcrafted Feature Extractors? SparseViT: Nonsemantics-Centered, Parameter-Efficient Image Manipulation Localization through Spare-Coding Transformer

作者單位:

四川大學(呂建成團隊),澳門大學

論文鏈接:

https://arxiv.org/abs/2412.14598

代碼鏈接:

https://github.com/scu-zjz/SparseViT

研究內容

利用非語義信息往往在局部和全局之間保持一致性,同時相較于語義信息在圖像不同區域表現出更大的獨立性,SparseViT 提出了以稀疏自注意力為核心的架構,取代傳統 Vision Transformer(ViT)的全局自注意力機制,通過稀疏計算模式,使得模型自適應提取圖像篡改檢測中的非語義特征。

研究團隊在統一的評估協議下復現并對比多個現有的最先進方法,系統驗證了 SparseViT 的優越性。同時,框架采用模塊化設計,用戶可以靈活定制或擴展模型的核心模塊,并通過可學習的多尺度監督機制增強模型對多種場景的泛化能力。

此外,SparseViT 極大地降低了計算量(最高減少 80% 的 FLOPs),實現了參數效率與性能的兼顧,展現了其在多基準數據集上的卓越表現。SparseViT 有望為圖像篡改檢測領域的理論與應用研究提供新視角,為后續研究奠定基礎。

SparseViT 總體架構的設計概覽圖如下所示:

b633e8ae-d0b2-11ef-9310-92fbcf53809c.png

▲ 圖1:SparseViT 總體架構

主要的組件包含:

1. 負責高效特征捕獲的 Sparse Self-Attention

Sparse Self-Attention 是 SparseViT 框架的核心組件,專注于在減少計算復雜度的同時高效捕獲篡改圖像中的關鍵特征即非語義特征。傳統的自注意力機制由于 patch 進行 token-to-token 的注意力計算,導致模型對語義信息過度擬合,使得非語義信息在受到篡改后表現出的局部不一致性被忽視。 為此,Sparse Self-Attention 提出了基于稀疏編碼的自注意力機制,如圖 2 所示,通過對輸入特征圖施加稀疏性約束,設輸入的特征圖 ,我們不是對 的整個特征上應用注意力,而是將特征分成形狀為的張量塊,表示將特征圖分解為 個大小為的不重疊的張量塊,分別在這些張量塊上進行自注意力計算。

b6460c3c-d0b2-11ef-9310-92fbcf53809c.png

▲ 圖2:稀疏自注意力

這一機制通過對特征圖進行區域劃分,使模型在訓練中專注于非語義特征的提取,提升了對圖像篡改偽影的捕捉能力。相比傳統自注意力,Sparse Self-Attention 減少了約 80% 的 FLOPs,同時保留了高效的特征捕獲能力,特別是在復雜場景中表現卓越。模塊化的實現方式還允許用戶根據需求對稀疏策略進行調整,從而滿足不同任務的需求。

2. 負責多尺度特征融合的 Learnable Feature Fusion(LFF)

Learnable Feature Fusion(LFF)是 SparseViT 中的重要模塊,旨在通過多尺度特征融合機制提高模型的泛化能力和對復雜場景的適應性。不同于傳統的固定規則特征融合方法,LFF 模塊通過引入可學習參數,動態調整不同尺度特征的重要性,從而增強了模型對圖像篡改偽影的敏感度。

LFF 通過從稀疏自注意力模塊輸出的多尺度特征中學習特定的融合權重,優先強化與篡改相關的低頻特征,同時保留語義信息較強的高頻特征。模塊設計充分考慮了 IML 任務的多樣化需求,既能針對微弱的非語義偽影進行細粒度處理,又能適應大尺度的全局特征提取。

LFF 的引入顯著提升了 SparseViT 在跨場景、多樣化數據集上的性能,同時減少了無關特征對模型的干擾,為進一步優化 IML 模型性能提供了靈活的解決方案。

研究總結

簡而言之,SparseViT 具有以下四個貢獻:

1. 我們揭示了篡改圖像的語義特征需要連續的局部交互來構建全局語義,而非語義特征由于其局部獨立性,可以通過稀疏編碼實現全局交互。

2. 基于語義和非語義特征的不同行為,我們提出使用稀疏自注意機制自適應地從圖像中提取非語義特征。

3. 為了解決傳統多尺度融合方法的不可學習性,我們引入了一種可學習的多尺度監督機制。

4. 我們提出的 SparseViT 在不依賴手工特征提取器的情況下保持了參數效率,并在四個公共數據集上實現了最先進的(SoTA)性能和出色的模型泛化能力。

SparseViT 通過利用語義特征和非語義特征之間的差異性,使模型能夠自適應地提取在圖像篡改定位中更為關鍵的非語義特征,為篡改區域的精準定位提供了全新的研究思路。

相關代碼和操作文檔、使用教程已完全開源在 GitHub 上(https://github.com/scu-zjz/SparseViT)。該代碼有著完善的更新計劃,倉庫將被長期維護,歡迎全球研究者使用和提出改進意見。

SparseViT 的主要科研成員來自四川大學呂建成團隊,合作方為澳門大學潘治文教授團隊。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 圖像
    +關注

    關注

    2

    文章

    1092

    瀏覽量

    41026
  • IML
    IML
    +關注

    關注

    0

    文章

    14

    瀏覽量

    11543
  • Transformer
    +關注

    關注

    0

    文章

    148

    瀏覽量

    6391

原文標題:AAAI 2025 | SparseViT:以非語義為中心、參數高效的稀疏化視覺Transformer

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯網技術研究所】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    奇瑞汽車整合相關業務成立智能中心

    加快推進智能戰略,奇瑞汽車于近日將旗下子公司雄獅科技、大卓智能與研發總院相關業務進行整合,統一成立“奇瑞智能中心”。奇瑞智能
    的頭像 發表于 06-04 15:29 ?173次閱讀

    【「# ROS 2智能機器人開發實踐」閱讀體驗】視覺實現的基礎算法的應用

    的Cartographer以其高效的子地圖管理和回環檢測能力著稱。書中通過實例演示了如何配置Cartographer的Lua參數文件,適應不同場景。 在真實機器人測試中,運動噪聲(如輪子打滑)可能導致建圖漂移,因此需要
    發表于 05-03 19:41

    融媒體IP新標桿:千視助力武威市融媒體中心打造全新遺直播體驗

    遺文化的獨特風采,更是融媒體IP轉型的標桿案例,傳統文化的音視頻傳播開辟了全新路徑。1大規模遺直播的挑戰隨著遺直播活動的蓬勃發展,直播場地的擴大和信號數量
    的頭像 發表于 03-11 19:58 ?289次閱讀
    融媒體IP<b class='flag-5'>化</b>新標桿:千視助力武威市融媒體<b class='flag-5'>中心</b>打造全新<b class='flag-5'>非</b>遺直播體驗

    OpenVINO? Toolkit中如何保持模型稀疏性?

    OpenVINO? Toolkit 中支持的優化方法,保持模型稀疏性。
    發表于 03-06 06:47

    華為發布AI中心的網絡解決方案

    在MWC25巴塞羅那期間舉辦的產品與解決方案發布會上,華為董事、ICT BG CEO楊超斌發布了AI中心的網絡解決方案(AI-Centric Network)。
    的頭像 發表于 03-05 10:02 ?414次閱讀

    如何使用MATLAB構建Transformer模型

    LanguageProcessing, NLP)中的序列到序列任務,如機器翻譯。Transformer 通過引入自注意力機制使得處理長距離依賴關系時變得高效。因此 Vaswani 等人的論文強調“注意力是所需的一切”。
    的頭像 發表于 02-06 10:21 ?3403次閱讀
    如何使用MATLAB構建<b class='flag-5'>Transformer</b>模型

    王欣然教授團隊提出基于二維材料的高效稀疏神經網絡硬件方案

    。 ? 稀疏性 (Sparsity)?是人腦中的神經突觸的本征屬性。在大腦發育過程中,超過一半的突觸會細粒度和結構的方式被剪枝?(Pruning),這是人腦具有高能效的關鍵因素。
    的頭像 發表于 01-13 10:41 ?470次閱讀
    王欣然教授團隊提出基于二維材料的<b class='flag-5'>高效</b><b class='flag-5'>稀疏</b>神經網絡硬件方案

    地平線ViG基于視覺Mamba的通用視覺主干網絡

    Vision Mamba的成功預示著將視覺表征學習轉換為線性復雜度視覺序列表征學習具有巨大的潛力。盡管Vision Mamba代表的線性視覺
    的頭像 發表于 01-08 09:33 ?521次閱讀
    地平線ViG基于<b class='flag-5'>視覺</b>Mamba的通用<b class='flag-5'>視覺</b>主干網絡

    港大提出SparX:強化Vision Mamba和Transformer稀疏跳躍連接機制

    本文分享香港大學計算和數據科學學院俞益洲教授及其研究團隊發表于 AAAI 2025 的論文——SparX,一種強化 Vision Mamba 和 Transformer稀疏跳躍連接機制,性能強大
    的頭像 發表于 01-03 09:28 ?578次閱讀
    港大提出SparX:強化Vision Mamba和<b class='flag-5'>Transformer</b>的<b class='flag-5'>稀疏</b>跳躍連接機制

    利用VLM和MLLMs實現SLAM語義增強

    語義同步定位與建圖(SLAM)系統在對鄰近的語義相似物體進行建圖時面臨困境,特別是在復雜的室內環境中。本文提出了一種面向對象SLAM的語義增強(SEO-SLAM)的新型SLAM系統,借助視覺
    的頭像 發表于 12-05 10:00 ?1134次閱讀
    利用VLM和MLLMs實現SLAM<b class='flag-5'>語義</b>增強

    使用ReMEmbR實現機器人推理與行動能力

    視覺語言模型(VLM)通過將文本和圖像投射到同一個嵌入空間,將基礎大語言模型(LLM)強大的語言理解能力與視覺 transformer(ViT)的視覺能力相結合。VLM 可以處理
    的頭像 發表于 11-19 15:37 ?733次閱讀
    使用ReMEmbR實現機器人推理與行動能力

    使用語義線索增強局部特征匹配

    視覺匹配是關鍵計算機視覺任務中的關鍵步驟,包括攝像機定位、圖像配準和運動結構。目前最有效的匹配關鍵點的技術包括使用經過學習的稀疏或密集匹配器,這需要成對的圖像。這些神經網絡對兩幅圖像的特征有很好的總體理解,但它們經常難以匹配不同
    的頭像 發表于 10-28 09:57 ?751次閱讀
    使用<b class='flag-5'>語義</b>線索增強局部特征匹配

    圖像語義分割的實用性是什么

    圖像語義分割是一種重要的計算機視覺任務,它旨在將圖像中的每個像素分配到相應的語義類別中。這項技術在許多領域都有廣泛的應用,如自動駕駛、醫學圖像分析、機器人導航等。 一、圖像語義分割的基
    的頭像 發表于 07-17 09:56 ?809次閱讀

    圖像分割與語義分割中的CNN模型綜述

    圖像分割與語義分割是計算機視覺領域的重要任務,旨在將圖像劃分為多個具有特定語義含義的區域或對象。卷積神經網絡(CNN)作為深度學習的一種核心模型,在圖像分割與語義分割中發揮著至關重要的
    的頭像 發表于 07-09 11:51 ?1761次閱讀

    機器視覺檢測技術在工業自動中的應用

    隨著科技的飛速發展,工業自動已成為現代工業生產的核心動力。在這個背景下,機器視覺檢測技術作為工業自動中的關鍵技術之一,以其高精度、高效率、高可靠性的優勢,在工業自動
    的頭像 發表于 06-07 12:06 ?1212次閱讀