女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

模型集成是一種提升模型能力的常用方法

新機器視覺 ? 來源:AI公園 ? 作者:AI公園 ? 2021-01-27 11:31 ? 次閱讀

導讀

模型集成是一種提升模型能力的常用方法,但通常也會帶來推理時間的增加,在物體檢測上效果如何,可以看看。

8c5baf2e-6042-11eb-8b86-12bb97331649.png

介紹

集成機器學習模型是一種常見的提升模型能力的方式,并已在多個場景中使用,因為它們結合了多個模型的決策,以提高整體性能,但當涉及到基于DNN(深度神經網絡)的目標檢測模型時,它并不僅僅是合并結果那么簡單。

集成的需求

為了在任何模型中獲得良好的結果,都需要滿足某些標準(數據、超參數)。但在真實場景中,你可能會得到糟糕的訓練數據,或者很難找到合適的超參數。在這些情況下,綜合多個性能較差的模型可以幫助你獲得所需的結果。在某種意義上,集成學習可以被認為是一種通過執行大量額外計算來彌補學習算法不足的方法。另一方面,另一種選擇是在一個非集成系統上做更多的學習。對于計算、存儲或通信資源的相同增加,集成系統使用兩種或兩種以上的方法可能會比使用單一方法增加資源的方法更有效地提高整體精度。

看起來挺好,有沒有缺點呢?

更難調試或理解預測,因為預測框是根據多個模型繪制的。

推理時間根據模型和使用的模型數量而增加。

嘗試不同的模型以獲得合適的模型集合是一件耗時的事情。

不同的模型集成

OR方法:如果一個框是由至少一個模型生成的,就會考慮它。

AND方法:如果所有模型產生相同的框,則認為是一個框(如果IOU >0.5)。

一致性方法:如果大多數模型產生相同的框,則認為是一個框,即如果有m個模型,(m/2 +1)個模型產生相同的框,則認為這個框有效。

加權融合:這是一種替代NMS的新方法,并指出了其不足之處。

8f114b52-6042-11eb-8b86-12bb97331649.png

不同的集成方法

在上面的例子中,OR方法的預測得到了所有需要的對象框,但也得到了一個假陽性結果,一致性的方法漏掉了馬,AND方法同時漏掉了馬和狗。

驗證

為了計算不同的集成方法,我們將跟蹤以下參數:

True positive:預測框與gt匹配

False Positives:預測框是錯誤的

False Negatives:沒有預測,但是存在gt。

Precision:度量你的預測有多準確。也就是說,你的預測正確的百分比[TP/ (TP + FP)]

Recall:度量gt被預測的百分比[TP/ (TP + FN)]

Average Precision:precision-recall圖的曲線下面積

使用的模型

為了理解集成是如何起作用的,我們提供了用于實驗的獨立模型的結果。

1. YoloV3:

903377bc-6042-11eb-8b86-12bb97331649.png

2. Faster R-CNN — ResNeXt 101 [X101-FPN]:

90fec3a4-6042-11eb-8b86-12bb97331649.png

集成實驗

1. OR — [YoloV3, X101-FPN]

91b45714-6042-11eb-8b86-12bb97331649.png

如果你仔細觀察,FPs的數量增加了,這反過來降低了精度。與此同時,TPs數量的增加反過來又增加了召回。這是使用OR方法時可以觀察到的一般趨勢。

2. AND — [YoloV3, X101-FPN]

91f8a054-6042-11eb-8b86-12bb97331649.png

與我們使用OR方法觀察到的情況相反,在AND方法中,我們最終獲得了較高的精度和較低的召回率,因為幾乎所有的假陽性都被刪除了,因為YoloV3和X101的大多數FPs是不同的。

檢測框加權融合

在NMS方法中,如果框的IoU大于某個閾值,則認為框屬于單個物體。因此,框的過濾過程取決于這個單一IoU閾值的選擇,這影響了模型的性能。然而,設置這個閾值很棘手:如果有多個物體并排存在,那么其中一個就會被刪除。NMS丟棄了冗余框,因此不能有效地從不同的模型中產生平均的局部預測。

9281237a-6042-11eb-8b86-12bb97331649.png

NMS和WBF之間的主要區別是,WBF利用所有的框,而不是丟棄它們。在上面的例子中,紅框是ground truth,藍框是多個模型做出的預測。請注意,NMS是如何刪除冗余框的,但WBF通過考慮所有預測框創建了一個全新的框(融合框)。

3. Weighted Boxes Fusion — [Yolov3, X101-FPN]

92b348f0-6042-11eb-8b86-12bb97331649.png

YoloV3和X101-FPN的權重比分別為2:1。我們也試著增加有利于X101-FPN的比重(因為它的性能更好),但在性能上沒有看到任何顯著的差異。從我們讀過的加權融合論文中,作者注意到了AP的增加,但如你所見,WBF YoloV3和X101-FPN并不比OR方法好很多。我們注意到的是,大部分的實驗涉及至少3個或更多模型。

4. Weighted Boxes Fusion — [Yolov3, X101, R101, R50]

93703e10-6042-11eb-8b86-12bb97331649.png

在最后的實驗中,我們使用了YoloV3以及我們在Detectron2中訓練的3個模型[ResNeXt101-FPN, ResNet101-FPN, ResNet50-FPN]。顯然,召回率有一個跳躍(約為傳統方法的0.3),但AP的跳躍并不大。另外,需要注意的是,當你向WF方法添加更多模型時,誤報的數量會激增。

總結

當使用相互補充的模型時,集成是提高性能的一種很好的方法,但它也會以速度為代價來完成推理。根據需求,可以決定有多少個模型,采用哪種方法,等等。但從我們進行的實驗來看,性能提升的數量似乎與一起運行這些模型所需的資源和推斷時間不成比例。

責任編輯:lq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4809

    瀏覽量

    102836
  • 模型
    +關注

    關注

    1

    文章

    3488

    瀏覽量

    50021
  • 機器學習
    +關注

    關注

    66

    文章

    8492

    瀏覽量

    134125

原文標題:目標檢測多模型集成方法總結

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    FA模型訪問Stage模型DataShareExtensionAbility說明

    解決方案,讓開發者平滑過渡到API 9(含)之后的版本。 基本原理 一種兼容方法是DataAbilityHelper根據傳入的URI的前綴是DataAbility還是DataShare來決定是否調
    發表于 06-04 07:53

    一種基于正交與縮放變換的大模型量化方法

    近年來,大規模語言模型(Large Language Models, LLMs)在自然語言處理領域取得了革命性進展。以 GPT 系列、LLaMA 等為代表的模型,通過千億級參數的復雜結構展現出強大的語義理解和生成能力
    的頭像 發表于 03-04 11:10 ?397次閱讀
    <b class='flag-5'>一種</b>基于正交與縮放變換的大<b class='flag-5'>模型</b>量化<b class='flag-5'>方法</b>

    模型領域常用名詞解釋(近100個)

    的分類進行了整理,以下供參考:模型架構與基礎概念大語言模型(LLM,LargeLanguageModel):一種基于深度學習的大規模神經網絡模型,通常采用Transf
    的頭像 發表于 02-19 11:49 ?707次閱讀
    大<b class='flag-5'>模型</b>領域<b class='flag-5'>常用</b>名詞解釋(近100個)

    【「基于大模型的RAG應用開發與優化」閱讀體驗】+Embedding技術解讀

    理和理解這些數據。在自然語言處理中,Embedding常用于將文本數據中的單詞、句子或文檔映射為固定長度的實數向量,這些向量包含了豐富的語義信息。RAG技術是一種結合信息檢索與文本生成能力的技術,它通過
    發表于 01-17 19:53

    【「基于大模型的RAG應用開發與優化」閱讀體驗】+大模型微調技術解讀

    ,減少了計算成本。LoRA(Low-Rank Adaptation):一種基于低秩分解的微調方法,通過分解模型參數矩陣為低秩矩陣來減少參數更新的數量,提高訓練效率。PET(Prompt-based
    發表于 01-14 16:51

    AI模型部署邊緣設備的奇妙之旅:目標檢測模型

    的是百度的Picodet模型,它是一種基于深度卷積網絡(DNN)的輕量級目標檢測模型,具有非常高的檢測精度,可以在低算力設備進行實時的端到端推理檢測。 2.1 Picodet模型介紹
    發表于 12-19 14:33

    【「大模型啟示錄」閱讀體驗】如何在客服領域應用大模型

    多個因素以確保所選模型能夠滿足企業的具體需求和目標。首先,企業需要明確自己的客服需求和目標。例如,是否需要24小時在線客服服務?是否需要處理復雜問題的能力?是否需要個性化服務?明確這些需求有助于企業更好
    發表于 12-17 16:53

    【《大語言模型應用指南》閱讀體驗】+ 基礎知識學習

    習語言的表達方式和生成能力。通過預測文本中缺失的部分或下個詞,模型逐漸掌握語言的規律和特征。 常用模型結構 Transformer架構
    發表于 08-02 11:03

    cnn常用的幾個模型有哪些

    CNN(卷積神經網絡)是一種深度學習模型,廣泛應用于圖像識別、自然語言處理等領域。以下是常用的CNN模型: LeNet-5:LeNet-
    的頭像 發表于 07-11 14:58 ?1756次閱讀

    rup是一種什么模型

    RUP(Rational Unified Process,統建模語言)是一種軟件開發過程模型,它是一種迭代和增量的軟件開發方法。RUP是由
    的頭像 發表于 07-09 10:13 ?2347次閱讀

    LLM模型和LMM模型的區別

    在重復測量或分層數據中。 LMM(線性混合效應模型)是一種特殊類型的線性混合模型,它包括固定效應和隨機效應。它通常用于分析具有多個層次的數據結構,例如在多層次或分組數據中。 固定效應與
    的頭像 發表于 07-09 09:57 ?2340次閱讀

    模型單卡的正確使用步驟

    、注意事項等方面進行介紹,以幫助用戶更好地掌握大模型單卡的使用技巧。 第部分:大模型單卡概述 1.1 大模型單卡的定義 大模型單卡是
    的頭像 發表于 07-05 14:32 ?1048次閱讀

    人工神經網絡模型一種什么模型

    人工神經網絡(Artificial Neural Networks,簡稱ANNs)是一種受生物神經網絡啟發而產生的數學模型,用于模擬人腦處理信息的方式。它由大量的節點(或稱為神經元)相互連接而成
    的頭像 發表于 07-04 16:57 ?1453次閱讀

    神經網絡模型建完了怎么用

    : 1.1 交叉驗證 交叉驗證是一種常用的評估方法,它將數據集分成若干個子集,然后使用其中個子集作為測試集,其余子集作為訓練集。通過這種方式,可以評估
    的頭像 發表于 07-02 11:23 ?941次閱讀

    智能制造能力成熟度模型是什么?

    ),賦予每個級別明確定義,相應標準和實現的必要條件。從最低級到最高級,智能制造能力是逐級提升的,每個級別都在前個級別的基礎上提升完善,同時也構成了向下
    的頭像 發表于 06-12 11:25 ?1411次閱讀
    智能制造<b class='flag-5'>能力</b>成熟度<b class='flag-5'>模型</b>是什么?