女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

分類模型評估指標匯總

電子設計 ? 來源:電子設計 ? 作者:電子設計 ? 2020-12-10 21:38 ? 次閱讀

作者:努力的孔子

對模型進行評估時,可以選擇很多種指標,但不同的指標可能得到不同的結果,如何選擇合適的指標,需要取決于任務需求。

正確率與錯誤率

正確率:正確分類的樣本數/總樣本數,accuracy

錯誤率:錯誤分類的樣本數/總樣本數,error

正確率+錯誤率=1

這兩種指標最簡單,也最常用

缺點

不一定能反應模型的泛化能力,如類別不均衡問題。

不能滿足所有任務需求

如有一車西瓜,任務一:挑出的好瓜中有多少實際是好瓜,任務二: 所有的好瓜有多少被挑出來了,顯然正確率和錯誤率不能解決這個問題。

查準率與查全率

先認識幾個概念

正樣本/正元組:目標元組,感興趣的元組

負樣本/負元組:其他元組

對于二分類問題,模型的預測結果可以劃分為:真正例 TP、假正例 FP、真負例 TN、 假負例 FN,

真正例就是實際為正、預測為正,其他同理

顯然 TP+FP+TN+FN=總樣本數

混淆矩陣

把上面四種劃分用混淆矩陣來表示

從而得出如下概念

查準率:預測為正里多少實際為正,precision,也叫精度

查全率:實際為正里多少預測為正,recall,也叫召回率

查準率和查全率是一對矛盾的度量。通常來講,查準率高,查全率就低,反之亦然。

例如還是一車西瓜,我希望將所有好瓜盡可能選出來,如果我把所有瓜都選了,那自然所有好瓜都被選了,這就需要所有的瓜被識別為好瓜,此時查準率較低,而召回率是100%,

如果我希望選出的瓜都是好瓜,那就要慎重了,寧可不選,不能錯選,這就需要預測為正就必須是真正例,此時查準率是100%,查全率可能較低。

注意我說的是可能較低,通常如果樣本很好分,比如正的全分到正的,負的全分到負的,那查準率、查全率都是100%,不矛盾。

P-R曲線

既然矛盾,那兩者之間的關系應該如下圖

這條曲線叫 P-R曲線,即查準率-查全率曲線。

這條曲線怎么畫出來的呢?可以這么理解,假如我用某種方法得到樣本是正例的概率(如用模型對所有樣本進行預測),然后把樣本按概率排序,從高到低

如果模型把第一個預測為正,其余預測為負,此時查準率為1,查全率接近于0,

如果模型把前2個預測為正,其余預測為負,此時查準率稍微降低,查全率稍微增加,

依次...

如果模型把除最后一個外的樣本預測為正,最后一個預測為負,那么查準率很低,查全率很高。

此時我把數據順序打亂,畫出來的圖依然一樣,即上圖。

既然查準率和查全率互相矛盾,那用哪個作為評價指標呢?或者說同時用兩個指標怎么評價模型呢?

兩種情形

如果學習器A的P-R曲線能完全“包住”學習器C的P-R曲線,則A的性能優于C

如果學習器A的P-R曲線與學習器B的P-R曲線相交,則難以判斷孰優孰劣,此時通常的作法是,固定查準率,比較查全率,或者固定查全率,比較查準率。

通常情況下曲線會相交,但是人們仍希望把兩個學習器比出個高低,一個合理的方式是比較兩條P-R曲線下的面積。

但是這個面積不好計算,于是人們又設計了一些其他綜合考慮查準率查全率的方式,來替代面積計算。

平衡點:Break-Event Point,簡稱BEP,就是選擇 查準率=查全率 的點,即上圖,y=x直線與P-R曲線的交點

這種方法比較暴力

F1 與 Fβ 度量

更常用的方法是F1度量

即 F1 是 P 和 R 的調和平均數。

與算數平均數 和 幾何平均數相比,調和平均數更重視較小值。

在一些應用中,對查準率和查全率的重視程度有所不同。

例如商品推薦系統,為了避免騷擾客戶,希望推薦的內容都是客戶感興趣的,此時查準率比較重要,

又如資料查詢系統,為了不漏掉有用信息,希望把所有資料都取到,此時查全率比較重要。

此時需要對查準率和查全率進行加權

即 P 和 R 的加權調和平均數。

β>0,β度量了查全率對查準率的重要性,β=1時即為F1

β>1,查全率更重要,β<1,查準率更重要

多分類的F1

多分類沒有正例負例之說,那么可以轉化為多個二分類,即多個混淆矩陣,在這多個混淆矩陣上綜合考慮查準率和查全率,即多分類的F1

方法1

直接在每個混淆矩陣上計算出查準率和查全率,再求平均,這樣得到“宏查準率”,“宏查全率”和“宏F1”

方法2

把混淆矩陣中對應元素相加求平均,即 TP 的平均,TN 的平均,等,再計算查準率、查全率、F1,這樣得到“微查準率”,“微查全率”和“微F1”

ROC 與 AUC

很多學習器是為樣本生成一個概率,然后和設定閾值進行比較,大于閾值為正例,小于為負例,如邏輯回歸。

而模型的優劣取決于兩點:

這個概率的計算準確與否

閾值的設定

我們把計算出的概率按從大到小排序,然后在某個點劃分開,這個點就是閾值,可以根據實際任務需求來確定這個閾值,比如更重視查準率,則閾值設大點,若更重視查全率,則閾值設小點,

這里體現了同一模型的優化,

不同的模型計算出的概率是不一樣的,也就是說樣本按概率排序時順序不同,那切分時自然可能分到不同的類,

這里體現了不同模型之間的差異,

所以ROC可以用來模型優化和模型選擇,理論上講 P-R曲線也可以。

ROC曲線的繪制方法與P-R曲線類似,不再贅述,結果如下圖

橫坐標為假正例率,縱坐標為真正例率,曲線下的面積叫 AUC

如何評價模型呢?

若學習器A的ROC曲線能包住學習器B的ROC曲線,則A優于B

若學習器A的ROC曲線與學習器B的ROC曲線相交,則難以比較孰優孰劣,此時可以比較AUC的大小

總結

模型評估主要考慮兩種場景:類別均衡,類別不均衡

模型評估必須考慮實際任務需求

P-R 曲線和 ROC曲線可以用于模型選擇

ROC曲線可以用于模型優化

參考資料:

周志華《機器學習

本文由博客一文多發平臺 OpenWrite 發布!

審核編輯 黃昊宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 模型
    +關注

    關注

    1

    文章

    3486

    瀏覽量

    49989
  • 機器學習
    +關注

    關注

    66

    文章

    8491

    瀏覽量

    134083
  • 深度學習
    +關注

    關注

    73

    文章

    5554

    瀏覽量

    122478
收藏 人收藏

    評論

    相關推薦
    熱點推薦

    模型領域常用名詞解釋(近100個)

    本文總結了大模型領域常用的近100個名詞解釋,并按照模型架構與基礎概念,訓練方法與技術,模型優化與壓縮,推理與應用,計算與性能優化,數據與標簽,模型
    的頭像 發表于 02-19 11:49 ?690次閱讀
    大<b class='flag-5'>模型</b>領域常用名詞解釋(近100個)

    ADC的靜態指標有專用的分析工具嗎?

    請問:ADC的靜態指標有專用的分析工具嗎?該指標很少在評估ADC指標時使用,是否該指標不重要,應用中什么情況下需要
    發表于 02-08 08:13

    【「大模型啟示錄」閱讀體驗】如何在客服領域應用大模型

    內為企業帶來效益。在選擇模型時,需要評估其性能表現。這包括模型的準確性、響應速度、對話流暢性、情感理解能力等方面。可以通過對比不同模型的測試結果、查看用戶反饋和評分等方式來
    發表于 12-17 16:53

    如何評估AI大模型的效果

    評估AI大模型的效果是一個復雜且多維度的過程,涉及多個方面的考量。以下是一些關鍵的評估方法和步驟: 一、基準測試(Benchmarking) 使用標準數據集和任務來評估
    的頭像 發表于 10-23 15:21 ?2717次閱讀

    Meta推出可自我評估AI模型

    Meta近期宣布了一項重要的人工智能進展,即將發布一系列全新的人工智能模型。其中,一款能夠自我評估模型尤為引人注目,這一創新有望顯著減少人工智能開發過程中的人類參與。
    的頭像 發表于 10-22 17:07 ?609次閱讀

    【每天學點AI】人工智能大模型評估標準有哪些?

    OpenAI新模型o1號稱編程能力8倍殺GPT-4o,MMLU媲美人類專家,MMLU是什么?評估模型的標準是什么?相信大家在閱讀大模型相關文檔的時候經常會看到MMLU,BBH,GSM
    的頭像 發表于 10-17 16:49 ?1193次閱讀
    【每天學點AI】人工智能大<b class='flag-5'>模型</b><b class='flag-5'>評估</b>標準有哪些?

    OpenAI與Anthropic新模型將受美政府評估

    近日,美國政府宣布了一項重要合作,旨在加強人工智能安全監管。根據協議,OpenAI與Anthropic兩大AI領軍企業同意,在推出新的AI模型之前,先將其提交給美國人工智能安全問題研究所進行評估。這一舉措旨在確保新模型在能力范圍
    的頭像 發表于 08-30 15:35 ?519次閱讀

    DRAM的分類、特點及技術指標

    DRAM(Dynamic Random Access Memory),即動態隨機存取存儲器,是計算機系統中廣泛使用的內存類型之一。它以其高速、大容量和相對低成本的特點,在數據處理和存儲中發揮著關鍵作用。以下將詳細介紹DRAM的分類、特點以及技術指標
    的頭像 發表于 08-20 09:35 ?5532次閱讀

    華為云盤古汽車大模型通過可信AI汽車大模型評估

    近日,國內科技界傳來喜訊,華為云盤古汽車大模型在信通院組織的可信AI汽車大模型首輪評估中脫穎而出,成功獲得4+級證書,成為國內首批通過該評估并榮膺當前最高評級的行業大
    的頭像 發表于 07-15 17:34 ?1095次閱讀

    利用TensorFlow實現基于深度神經網絡的文本分類模型

    要利用TensorFlow實現一個基于深度神經網絡(DNN)的文本分類模型,我們首先需要明確幾個關鍵步驟:數據預處理、模型構建、模型訓練、模型
    的頭像 發表于 07-12 16:39 ?1418次閱讀

    人臉檢測模型的精確度怎么算

    人臉檢測模型的精確度評估是一個復雜的過程,涉及到多個方面的因素。本文將從以下幾個方面進行介紹:人臉檢測模型的基本概念、評估指標
    的頭像 發表于 07-04 09:14 ?1011次閱讀

    神經網絡模型建完了怎么用

    : 1.1 交叉驗證 交叉驗證是一種常用的評估方法,它將數據集分成若干個子集,然后使用其中一個子集作為測試集,其余子集作為訓練集。通過這種方式,可以評估模型在不同數據集上的性能。 1.2 混淆矩陣 混淆矩陣是一種
    的頭像 發表于 07-02 11:23 ?929次閱讀

    深度學習模型訓練過程詳解

    深度學習模型訓練是一個復雜且關鍵的過程,它涉及大量的數據、計算資源和精心設計的算法。訓練一個深度學習模型,本質上是通過優化算法調整模型參數,使模型能夠更好地擬合數據,提高預測或
    的頭像 發表于 07-01 16:13 ?2403次閱讀

    esp-dl int8量化模型數據集評估精度下降的疑問求解?

    一 試著將模型進行了esp-dl上int16和int8的量化,并在測試數據集上進行精度評估,其中int16的模型精度基本沒有下降,但是int8的模型
    發表于 06-28 15:10

    商湯小浣熊榮獲中國信通院代碼大模型能力評估“三好生”

    近日,商湯小浣熊代碼大模型在中國信通院“可信AI代碼大模型評估”中,榮獲4+級最高評級,成為國內首批通過該項評估的企業之一。
    的頭像 發表于 06-13 15:37 ?736次閱讀
    商湯小浣熊榮獲中國信通院代碼大<b class='flag-5'>模型</b>能力<b class='flag-5'>評估</b>“三好生”