女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

小模型也能進行上下文學習!字節&華東師大聯合提出自進化文本識別器

CVer ? 來源:CVer ? 2023-11-27 16:28 ? 次閱讀

大語言模型(LLM)能夠以一種無需微調的方式從少量示例中學習,這種方式被稱為 "上下文學習"(In-context Learning)。目前只在大模型上觀察到上下文學習現象,那么,常規大小的模型是否具備類似的能力呢?GPT4、Llama等大模型在非常多的領域中都表現出了杰出的性能,但很多場景受限于資源或者實時性要求較高,無法使用大模型。為了探索小模型的上下文學習能力,字節和華東師大的研究團隊在場景文本識別任務上進行了研究。

場景文本識別(Scene Text Recognition)的目標是將圖像中的文本內容提取出來。實際應用場景中,場景文本識別面臨著多種挑戰:不同的場景、文字排版、形變、光照變化、字跡模糊、字體多樣性等,因此很難訓練一個能應對所有場景的統一的文本識別模型。一個直接的解決辦法是收集相應的數據,然后在特定場景下對模型進行微調。但是這一過程需要重新訓練模型,當場景變多、領域任務變得復雜時,實際的訓練、存儲、維護資源則呈幾何倍增長。如果文本識別模型也能具備上下文學習能力,面對新的場景,只需少量標注數據作為提示,就能提升在新場景上的性能,那么上面的問題就迎刃而解。然而,場景文本識別是一個資源敏感型任務,將大模型當作文本識別器非常耗費資源,并且通過初步的實驗,研究人員發現傳統的訓練大模型的方法在場景文本識別任務上并不適用。

為了解決這個問題,來自字節和華東師大的研究團隊提出了自進化文本識別器,ESTR(Ego-Evolving Scene Text Recognizer),一個融合了上下文學習能力的常規大小文本識別器,無需微調即可快速適應不同的文本識別場景。ESTR配備了一種上下文訓練和上下文推理模式,不僅在常規數據集上達到了SOTA的水平,而且可以使用單一模型提升在各個場景中的識別性能,實現對新場景的快速適應,甚至超過了經過微調后專用模型的識別性能。ESTR證明,常規大小的模型足以在文本識別任務中實現有效的上下文學習能力。ESTR在各種場景中無需微調即可表現出卓越的適應性,甚至超過了經過微調后的識別性能。

8e61a640-8c75-11ee-939d-92fbcf53809c.png

論文地址:https://arxiv.org/pdf/2311.13120

方法

圖1介紹了ESTR的訓練和推理流程。

8e777d4e-8c75-11ee-939d-92fbcf53809c.png

1.基礎文本識別訓練

基礎文本識別訓練階段采用自回歸框架訓練視覺編碼器和語言解碼器:

8e992818-8c75-11ee-939d-92fbcf53809c.png

2.上下文訓練

上下文訓練階段ESTR 將根據文中提出的上下文訓練范式進行進一步訓練。在這一階段,ESTR 會學習理解不同樣本之間的聯系,從而從上下文提示中獲益。

8ea68454-8c75-11ee-939d-92fbcf53809c.png

如圖2所示,這篇文章提出 ST 策略,在場景文本數據中進行隨機的分割和轉換,從而生成一組 "子樣本"。子樣本在視覺和語言方面都是內在聯系的。這些內在聯系的樣本被拼接成一個序列,模型從這些語義豐富的序列中學習上下文知識,從而獲取上下文學習的能力。這一階段同樣采用自回歸框架進行訓練:

8eb82718-8c75-11ee-939d-92fbcf53809c.png

3.上下文推理

針對一個測試樣本,該框架會從上下文提示池中選擇 個樣本,這些樣本在視覺隱空間與測試樣本具有最高的相似度。具體來說,這篇文章通過對視覺token序列做平均池化,計算出圖像embedding 。然后,從上下文池中選擇圖像嵌入與 的余弦相似度最高的前 N 個樣本,從而形成上下文提示。

8ec51a9a-8c75-11ee-939d-92fbcf53809c.png

上下文提示和測試樣本拼接在一起送入模型,ESTR便會以一種無訓練的方式從上下文提示中學得新知識,提升測試樣本的識別準確率。值得注意的是,上下文提示池只保留了視覺編碼器輸出的token,使得上下文提示的選擇過程非常高效。此外,由于上下文提示池很小,而且ESTR不需要訓練就能直接進行推理,因此額外的消耗也降到了最低限度。

實驗

實驗從三個角度進行:

1.傳統數據集

從訓練集中隨機抽取很少的樣本(1000個,訓練集 0.025% 的樣本數量)組成上下文提示池,在12個常見的場景文本識別測試集中進行的測試,結果如下:

8eef0760-8c75-11ee-939d-92fbcf53809c.png

2.跨域場景

跨域場景下每個測試集僅提供100個域內訓練樣本,無訓練和微調對比結果如下。ESTR甚至超過了SOTA方法的微調結果。

8f0ad454-8c75-11ee-939d-92fbcf53809c.png

3.困難樣本修正

研究人員收集了一批困難樣本,對這些樣本提供了10%~20%的標注,對比ESTR的無訓練學習方法和SOTA方法的微調學習方法,結果如下:

8f2a9f82-8c75-11ee-939d-92fbcf53809c.png

可以發現,ESTR-ICL大大降低了困難樣本的錯誤率。

未來展望

ESTR證明了使用合適的訓練和推理策略,小模型也可以擁有和LLM類似的In-context Learning的能力。在一些實時性要求比較強的任務中,使用小模型也可以對新場景進行快速的適應。更重要的是,這種使用單一模型來實現對新場景快速適應的方法使得構建統一高效的小模型更近了一步。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 模型
    +關注

    關注

    1

    文章

    3483

    瀏覽量

    49962
  • 識別器
    +關注

    關注

    0

    文章

    21

    瀏覽量

    7701
  • 大模型
    +關注

    關注

    2

    文章

    3020

    瀏覽量

    3805

原文標題:小模型也能進行上下文學習!字節&華東師大聯合提出自進化文本識別器

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    S32K在AUTOSAR中使用CAT1 ISR,是否需要執行上下文切換?

    如果我們在 AUTOSAR 中使用 CAT1 ISR,是否需要執行上下文切換?另外,是否需要返回指令才能跳回到作系統?您有沒有帶有 CAT1 ISR 的 S32K3x4 微控制的示例?
    發表于 03-27 07:34

    DeepSeek推出NSA機制,加速長上下文訓練與推理

    的特性,專為超快速的長上下文訓練和推理而設計。 NSA通過針對現代硬件的優化設計,顯著加快了推理速度,并大幅度降低了預訓練成本,同時保持了卓越的性能表現。這一機制在確保效率的同時,并未犧牲模型的準確性或功能。 在廣泛的基準測試、涉及長
    的頭像 發表于 02-19 14:01 ?561次閱讀

    【「基于大模型的RAG應用開發與優化」閱讀體驗】RAG基本概念

    多路召回策略從海量數據中初步篩選相關信息,利用語義相似度計算深入評估信息與需求的匹配程度,再通過上下文相關性過濾確保信息的精準度。大模型集成層,為了能與主流的大語言模型(LLM)順利對接,進行
    發表于 02-08 00:22

    【「基于大模型的RAG應用開發與優化」閱讀體驗】+Embedding技術解讀

    與文檔庫中每個文檔向量的相似度,來檢索最相關的文檔。這一過程依賴于Embedding模型文本語義的準確捕捉。檢索到的文檔與用戶的問題一起被Embedding模型轉換為向量,形成新的上下文
    發表于 01-17 19:53

    【「基于大模型的RAG應用開發與優化」閱讀體驗】+大模型微調技術解讀

    。對于文本數據,可以采用同義詞替換、句法變換、上下文擴展等技術。微調策略和方法全參數微調:對模型的所有參數進行再訓練。雖然需要大量的計算資源,但它可以充分適應特定任務。輕量級微調方法:
    發表于 01-14 16:51

    《具身智能機器人系統》第7-9章閱讀心得之具身智能機器人與大模型

    的應用。MAML算法通過二階優化找到對任務變化敏感的模型參數,實現了快速適應。上下文學習則引入了注意力機制,使模型能夠根據當前場景動態調整行為策略。在預訓練-微調范式中,我們要注意任務表示的重要性:好的表示
    發表于 12-24 15:03

    Kaggle知識點:使用大模型進行特征篩選

    方法依賴于數據集中的樣本點進行統計推斷,而基于文本的方法需要描述性的上下文以更好地在特征和目標變量之間建立語義關聯。這種方法利用了大型語言模型(LLMs)中豐富的語
    的頭像 發表于 12-03 01:06 ?1637次閱讀
    Kaggle知識點:使用大<b class='flag-5'>模型</b><b class='flag-5'>進行</b>特征篩選

    Llama 3 語言模型應用

    理解復雜的上下文信息,包括對話歷史、用戶偏好和文化差異。這使得它在對話系統和個性化推薦中表現出色。 情感分析 :通過深度學習技術,Llama 3 能夠識別和理解文本中的情感傾向,無論是
    的頭像 發表于 10-27 14:15 ?651次閱讀

    AI大模型在自然語言處理中的應用

    海量的文本數據,能夠生成結構化、連貫的文本段落。 在新聞寫作、創意內容生成等場景中,AI大模型展現出了卓越的效果。例如,GPT系列模型可以生成完整的文章、技術文檔,甚至是代碼片段。 自
    的頭像 發表于 10-23 14:38 ?1273次閱讀

    onsemi LV/MV MOSFET 產品介紹 &amp;amp;amp; 行業應用

    系列MOSFET介紹。4.onsemiLV/MVMOSFET市場&amp;應用。技術亮點onsemi最新一代T10系列MOSFET優勢&amp;市場前景。學習收獲期望了解onsemiSi
    的頭像 發表于 10-13 08:06 ?804次閱讀
    onsemi LV/MV MOSFET 產品介紹 &<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>; 行業應用

    SystemView上下文統計窗口識別阻塞原因

    SystemView工具可以記錄嵌入式系統的運行時行為,實現可視化的深入分析。在新發布的v3.54版本中,增加了一項新功能:上下文統計窗口,提供了對任務運行時統計信息的深入分析,使用戶能夠徹底檢查每個任務,幫助開發人員識別阻塞原因。
    的頭像 發表于 08-20 11:31 ?633次閱讀

    【《大語言模型應用指南》閱讀體驗】+ 基礎知識學習

    的信息,提供更全面的上下文理解。這使得模型能夠更準確地理解復雜問題中的多個層面和隱含意義。 2. 語義分析 模型通過訓練學習到語言的語義特征,能夠
    發表于 08-02 11:03

    FS201資料(pcb &amp;amp; DEMO &amp;amp; 原理圖)

    電子發燒友網站提供《FS201資料(pcb &amp; DEMO &amp; 原理圖).zip》資料免費下載
    發表于 07-16 11:24 ?2次下載

    超ChatGPT-4o,國產大模型竟然更懂翻譯,8款大模型深度測評|AI 橫評

    、速度慢、費用高且難以準確理解上下文”的問題。相比之下,AI大模型憑借其強大的學習能力和適應性,在翻譯質量、效率、上下文理解和多語言支持等方面表現出色,提供了更加
    的頭像 發表于 07-14 08:04 ?128次閱讀
    超ChatGPT-4o,國產大<b class='flag-5'>模型</b>竟然更懂翻譯,8款大<b class='flag-5'>模型</b>深度測評|AI 橫評

    鴻蒙Ability Kit(程序框架服務)【應用上下文Context】

    [Context]是應用中對象的上下文,其提供了應用的一些基礎信息,例如resourceManager(資源管理)、applicationInfo(當前應用信息)、dir(應用文件路徑)、area
    的頭像 發表于 06-06 09:22 ?798次閱讀
    鴻蒙Ability Kit(程序框架服務)【應用<b class='flag-5'>上下文</b>Context】