女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

怎么讓機器理解“什么是公平”

454398 ? 來源:ST社區(qū) ? 作者:ST社區(qū) ? 2022-12-22 22:06 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

來源:ST社區(qū)

“什么是公平”,就算是人類自己也沒有統(tǒng)一的標準,它有時取決于語境。不論是在家里,還是在學校,教導小孩要公平是至關(guān)重要的,但說起來容易做起來難。正因為如此,我們要如何才能將社會上所說的“公平”的細微差別傳遞給人工智能(AI)系統(tǒng)呢?

IBM研究院的一組研究人員是著手解決該難題的先驅(qū)。IBM為開發(fā)人員推出了一款名為“AI Fairness 360”的工具包。作為這項工作的一部分,IBM為企業(yè)提供一種新的“基于云的、偏差(bias)檢測和消除服務(wù)”,企業(yè)可以使用它來測試和驗證AI驅(qū)動的系統(tǒng)的行為。

在接受EE Times的電話采訪時,IBM研究院院士SaskaMojsilovic告訴我們,科學家和AI從業(yè)者太過于關(guān)注AI的準確性。通常,人們關(guān)于AI的第一個問題是,“機器可以擊敗人類嗎?”

但公平呢?例如,AI中的公平缺位可能會導致在醫(yī)療保健中或自動駕駛車輛造成災(zāi)難性后果,她說。

如果用于訓練機器的數(shù)據(jù)集有偏差怎么辦?如果AI無法解釋它是如何做出決定的,那么我們怎樣才能驗證其“正確性?”AI可以揭示在AI處理過程中數(shù)據(jù)是否被以某種方式操縱過嗎?AI是否可以向我們保證其數(shù)據(jù)從未(包括處理前和處理后)受到攻擊或篡改嗎?簡言之,是否存在AI內(nèi)省?簡單回答:沒有。

Mojsilovic表示,如果不對AI用戶、開發(fā)人員和從業(yè)者開放,AI系統(tǒng)就無法獲得社會的信任。

分解公平

一個更大的問題是如何教導機器什么是公平。Mojsilovic指出,“因為我們是科學家,我們做的第一件事就是分解‘公平’。我們需要從這著手。”他們將公平分解為AI實現(xiàn)中的指標、算法和偏差。

IBM研究科學家Kush Varshney解釋說,其團隊研究了AI算法和AI決策的偏差和公平性。“有個人的公平,也有團體的公平。我們研究了群體的不同屬性——從性別到種族。還考慮了法律和監(jiān)管問題。”最后,團隊最終測量了30個不同的指標,以尋找數(shù)據(jù)集、AI模型和算法中的偏差。

這些發(fā)現(xiàn)已納入IBM不久前推出的AI Fairness 360工具箱中。IBM將其描述為“一個全面的指標開源工具包,用于檢查數(shù)據(jù)集和機器學習模型中不期望的偏差。”

雖然許多科學家已經(jīng)在努力發(fā)現(xiàn)AI算法中的歧視(discrimination),但Mojsilovic說IBM的方法不同,它不僅包括發(fā)現(xiàn)偏差的算法,且還包括用于消除偏差的工具。

在基礎(chǔ)層面,你必定會問:由計算機科學家——定義公平?這通常不是社會科學家的活嗎?意識到這種不搭調(diào),IBM明確表示Mojsilovic和Varshney都沒有閉門造車。他們引入了許多學者和研究機構(gòu)。Varshney參加了由卡內(nèi)基國際事務(wù)倫理委員會主辦的Uehiro-Carnegie-Oxford倫理會議。 Mojsilovic參加了由加州大學伯克利分校法學院贊助的加州伯克利人工智能工作組。

算法中立嗎?

一段時間以來,社會科學家一直在指出AI偏差問題。
威斯康星大學麥迪遜分校新聞與大眾傳播學院教授Young Mie Kim解釋說,“AI歧視(或AI偏差)可能發(fā)生在它隱含或明確地強化現(xiàn)有不平等的社會秩序和偏見(例如,性別、種族、年齡、社會/經(jīng)濟狀況等)時。”例子從抽樣誤差(例如,由于抽樣方法的不適當或困難導致某些人口統(tǒng)計數(shù)據(jù)不充分)到機器訓練(建模)中的人為偏差。 Kim認為,即使在設(shè)計或建模中采用的“戰(zhàn)略決策”也存在AI偏差,例如政治廣告算法。

在她最近題為“算法機會:數(shù)字廣告和政治參與的不平等”的研究中,Kim展示了在基于算法的決策中不平等是如何被強化的。

技術(shù)社區(qū)可能會爭辯說“算法是中立的”或者可以“受過教育”(訓練有素)。 Kim指出,“也就是說,他們并不承認在算法開發(fā)的任何階段都會出現(xiàn)偏差。”

可解釋的AI

不只是消費者害怕AI。許多計算機科學家也表達了擔憂。

威斯康星大學計算機科學助理教授AwsAlbarghouthi告訴EE Times,“從短期看,我擔心越來越多地使用數(shù)據(jù)驅(qū)動的決策,這有可能傳播偏見和不公正。從長遠看,我擔心AI在戰(zhàn)爭自動化方面的使用。”

AI無法解釋其決策帶來持續(xù)焦慮。威斯康星大學計算機科學助理教授Loris D'Antoni告訴我們,“現(xiàn)在,程序員開始將強大的機器學習算法作為編程工具箱中的工具。然而,這些算法復雜、難以預測、難以解釋。例如,沒人知道由此產(chǎn)生的機器學習模型究竟做了什么。在他看來,“總的來說,自動化決策需要被理解和規(guī)范,并且可能以正規(guī)的方式進行。”

對于流程的每個步驟,從訓練數(shù)據(jù)和處理到測試和部署,IBM指出其工具包提供的解釋 可顯示:在兩種決策中、哪些因素傾向于支持哪一方;對推薦的信心以及支持這種信心的因素。

IBM希望AI Fairness 360工具包將被廣泛使用,以便開發(fā)人員可以為其做出貢獻,幫助建立對AI的信任。

與此同時,IBM將為企業(yè)提供其新的軟件服務(wù),旨在自動檢測偏差并解釋AI在需要做決策時,是如何做出決策的。它在IBM Cloud上運行,可幫助企業(yè)管理AI系統(tǒng)。

IBM稱,其在IBM Cloud上的公平性監(jiān)控服務(wù)將與來自各種機器學習框架模型和AI構(gòu)建環(huán)境(如Watson、TensorFlow、SparkML、AWS SageMaker和AzureML)配合使用。“這意味著組織可以借力這些新控制以服務(wù)于企業(yè)使用的大多數(shù)流行的AI框架,”IBM稱。IBM也承諾提供定制服務(wù)。“還可對軟件服務(wù)進行編程,以監(jiān)控任何業(yè)務(wù)工作流程的獨特決策因素,使其能夠根據(jù)特定的組織用途進行定制。”

好的開始

越來越意識到AI中算法公平問題的AI研究界,對IBM的新產(chǎn)品表示歡迎。威斯康星大學的計算機科學家D'Antoni告訴我們,“看到公平檢查技術(shù)進入業(yè)界并付諸實踐,真的令人興奮。”他補充道,“我認為該工具將使AI研究界更加意識到該問題的重要性。”

Albarghouthi稱IBM的努力“開了個好頭”。

但是為了讓AI Fairness 360工具包真正變得有效,應(yīng)該使許多需要理解它的開發(fā)人員能用到它。Albarghouthi解釋說,該工具需要“與研究界探索的最新的公平技術(shù)共同發(fā)展。”

他告誡說,“如果研究和理解超越了目前的定義和技術(shù),”那么該工具很可能會停滯不前。

公平問題

最后,任何成全或破壞AI公平工具包的因素都會回溯到如何定義公平這一棘手問題。IBM的Mojsilovic承認,在不同應(yīng)用中,公平有不同表現(xiàn)。正如人類對公平有不同看法,用戶、客戶和公眾可能會根據(jù)情況對公平有不同評判。

當被問及AI公平工具包的缺陷時,Albarghouthi表示,問題之一是“存在于公平性定義的選擇以及其是否足夠。”畢竟,公平“在很大程度上取決于領(lǐng)域、其敏感性和涉及的監(jiān)管。”他補充說:“我確信,這些工具只有在其使用成為機器學習管道的標準部分時才有效。”

D'Antoni表達了他自己的擔憂。“有很多關(guān)于公平和偏差的定義,很難將它們?nèi)靠紤]在內(nèi)且其實現(xiàn)也并非能畢其功于一役。”換句話說,“公平定義往往是‘沖突的,’他說。“存在的不可能出現(xiàn)的結(jié)果表明,某些公平概念不能同時訴諸實施。”
此外,還有一個事實是“機器學習社區(qū)目前尚未接受過如何了解現(xiàn)有的公平和偏差定義的含義以及如何使用它們,”他補充道。

社會科學家Kim同意。“對這種[AI偏見]問題的認識是抗擊AI歧視的第一步,也是最重要的一步。”她指出,“在人類社會中,我們提出了一些減輕不平等和歧視的政策和法規(guī)。但問題是AI仍是個秘密。與大多數(shù)情況一樣,數(shù)據(jù)和建模是專有的。這使得任何公共政策或監(jiān)管討論/辯論更加困難。“

透明度

理解了定義公平性時的復雜性和權(quán)衡取舍之后,IBM研究人員認為,優(yōu)先事項應(yīng)該是AI實踐和實施的透明度。

IBM的Mojsilovic建議由AI服務(wù)開發(fā)商和提供商完成并自愿發(fā)布供應(yīng)商的符合性聲明(她稱之為情況說明書)“以提高其服務(wù)的透明度并產(chǎn)生對它們的信任。”她將其比作“食品營養(yǎng)標簽”,或“器具信息表”。

業(yè)界需要有關(guān)部署在不同服務(wù)中的AI系統(tǒng)信息的標準。 IBM敏銳地意識到這不會在一夜之間發(fā)生。正如營養(yǎng)標簽花了很長時間才逐步發(fā)展起來一樣,情況說明書的開發(fā)可能是個漫長過程。Mojsilovic警告說,業(yè)界才剛剛開始其人工智能之旅。

與IBM類似,研究界也在與AI公平問題斗爭。在這個懸而未決的領(lǐng)域,IBM的AI Fairness工具箱似乎具有開創(chuàng)性。 D'Antoni告訴我們,“我不知道現(xiàn)有的用于AI模型的通用公平檢查工具。”

另一方面,他補充說,“研究界提出了許多令人興奮的原型工具。例如,Kramer等人提出的FairTest和來自我們自己團隊的FairSquare。”

審核編輯 黃昊宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器
    +關(guān)注

    關(guān)注

    0

    文章

    790

    瀏覽量

    41262
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1224

    瀏覽量

    25435
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    人形機器人背后的“靈魂導師”:工程師示教的價值與富唯智能的實踐

    示教不是對機器的妥協(xié),而是對人機協(xié)同的深度賦能。正如訓練師吳廣所言:“要把機器人當作伙伴”——工程師輸入的不僅是數(shù)據(jù),更是機器理解物理世界
    的頭像 發(fā)表于 07-05 16:15 ?247次閱讀
    人形<b class='flag-5'>機器</b>人背后的“靈魂導師”:工程師示教的價值與富唯智能的實踐

    具身智能硬件真正“活”起來 商湯科技機器人會說話,需要幾步?

    你的具身智能硬件瞬間擁有“能聽、能看、會說”的超能力? 現(xiàn)在,只需 開機、 安裝 、 啟動運行 三步 ,無需代碼,即可讓機器人擁有 SenseNova V6 Omni 多模態(tài)大模型的實時音視頻
    的頭像 發(fā)表于 06-06 14:25 ?682次閱讀

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】視覺實現(xiàn)的基礎(chǔ)算法的應(yīng)用

    與地圖構(gòu)建:機器理解環(huán)境 第8章聚焦SLAM(同步定位與地圖構(gòu)建)技術(shù),介紹了SLAM Toolbox和Cartographer兩大主流框架。我的學習體會如下: SLAM的核心原理 SLAM
    發(fā)表于 05-03 19:41

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】機器人入門的引路書

    ROS的全稱:Robot Operating System 機器人操作系統(tǒng) ROS的 目的 :ROS支持通用庫,是通信總線,協(xié)調(diào)多個傳感器 為了解決機器人里各廠商模塊不通用的問題,機器
    發(fā)表于 04-30 01:05

    基于MindSpeed MM玩轉(zhuǎn)Qwen2.5VL多模態(tài)理解模型

    多模態(tài)理解模型是AI像人類一樣,通過整合多維度信息(如視覺、語言、聽覺等),理解數(shù)據(jù)背后的語義、情感、邏輯或場景,從而完成推理、決策等任務(wù)。
    的頭像 發(fā)表于 04-18 09:30 ?1432次閱讀
    基于MindSpeed MM玩轉(zhuǎn)Qwen2.5VL多模態(tài)<b class='flag-5'>理解</b>模型

    為什么要費這么大勁機器人像人一樣,而不是更實用的形態(tài)?

    為什么要費這么大勁機器人像人一樣,而不是更實用的形態(tài)? 將機器人設(shè)計成人形(即仿人機器人)的意義可以從多個角度探討,涉及技術(shù)、社會、心理和實用性等多個層面。以下是主要的考量點: 1.
    的頭像 發(fā)表于 02-10 10:03 ?384次閱讀

    【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人大模型

    的設(shè)計不僅提高了機器人對環(huán)境的理解能力,還使其能夠更精準地執(zhí)行復雜任務(wù)。 擴散模型的新思路 除了大模型,擴散模型的引入為機器人控制開辟了新的研究方向。在以UniPi為代表的創(chuàng)新工作中,通過用戶的自然語言
    發(fā)表于 12-29 23:04

    【「具身智能機器人系統(tǒng)」閱讀體驗】1.初步理解具身智能

    人需要理解環(huán)境,適應(yīng)變化的環(huán)境。 從國際上來看,已經(jīng)有不少科技公司發(fā)布了自己的機器人產(chǎn)品,大多數(shù)應(yīng)用在安保,物流,制造等場景。 中國在具身智能機器人領(lǐng)域的研發(fā)速度相對較慢,但經(jīng)過多年的發(fā)展,已經(jīng)取得了顯著
    發(fā)表于 12-28 21:12

    《具身智能機器人系統(tǒng)》第1-6章閱讀心得之具身智能機器人系統(tǒng)背景知識與基礎(chǔ)模塊

    將大模型的\"大腦\"裝入物理實體的\"身軀\",AI真正走進現(xiàn)實世界。這種革新不僅體現(xiàn)在稚暉君開源的人形機器人方案,更在“AI教母”李飛飛的VoxPoser
    發(fā)表于 12-19 22:26

    “兼具”性能與成本,INDEMIND新一代視覺方案機器人落地更輕松!

    機器人開發(fā)更快速,落地更穩(wěn)健。
    的頭像 發(fā)表于 12-06 14:46 ?448次閱讀
    “兼具”性能與成本,INDEMIND新一代視覺方案<b class='flag-5'>讓</b><b class='flag-5'>機器</b>人落地更輕松!

    機器人技術(shù)的發(fā)展趨勢

    能力。 機器人能夠通過學習和訓練,不斷優(yōu)化自身的行為和性能,實現(xiàn)更高效、更智能的工作。 自然語言處理與理解 : 隨著自然語言處理技術(shù)的進步,機器人開始具備理解和表達情感的能力,能夠更好
    的頭像 發(fā)表于 10-25 09:27 ?2342次閱讀

    工業(yè)自動化時代,如何理解機器換人”和“人機協(xié)作”

    應(yīng)運而生。本文將從不同角度解讀“機器換人”和“人機協(xié)作”的內(nèi)涵,分析其優(yōu)勢和劣勢,并給出相應(yīng)的思考和建議。如何理解機器換人?“機器換人”意味著人們用
    的頭像 發(fā)表于 09-06 15:08 ?1858次閱讀
    工業(yè)自動化時代,如何<b class='flag-5'>理解</b>“<b class='flag-5'>機器</b>換人”和“人機協(xié)作”

    【「時間序列與機器學習」閱讀體驗】+ 簡單建議

    這本書以其系統(tǒng)性的框架和深入淺出的講解,為讀者繪制了一幅時間序列分析與機器學習融合應(yīng)用的宏偉藍圖。作者不僅扎實地構(gòu)建了時間序列分析的基礎(chǔ)知識,更巧妙地展示了機器學習如何在這一領(lǐng)域發(fā)揮巨大潛力,使得
    發(fā)表于 08-12 11:21

    平衡創(chuàng)新與倫理:AI時代的隱私保護和算法公平

    機制,還包括了數(shù)據(jù)的來源、處理方式以及使用目的的明確披露。這樣不僅有助于監(jiān)管機構(gòu)進行審查,也普通用戶能夠理解AI系統(tǒng)的決策依據(jù),從而減少因“黑箱操作”帶來的不信任和誤解。例如,在AI輔助醫(yī)療診斷中
    發(fā)表于 07-16 15:07

    什么是機器視覺opencv?它有哪些優(yōu)勢?

    機器視覺(Machine Vision)是一種利用計算機和圖像處理技術(shù)來模擬人類視覺系統(tǒng)的功能,實現(xiàn)對圖像的識別、分析和理解的技術(shù)。OpenCV(Open Source Computer
    的頭像 發(fā)表于 07-16 10:33 ?1351次閱讀