女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

攜手 MLCommons,制定有效且值得信賴的 AI 安全基準

谷歌開發者 ? 來源:未知 ? 2023-12-05 18:10 ? 次閱讀

作者 / 技術與社會部 Anoop Sinha 以及 Google Research、Responsible AI 和以人為本技術團隊 Marian Croak


標準基準是衡量重要產品質量的公認方法,存在于許多領域。一些標準基準用于衡量安全性:例如,當汽車制造商宣傳 "整體安全評分五星" 時,會引用某項基準。機器學習 (ML) 和 AI 技術領域已經存在標準基準:例如,MLCommons Association 運用 MLPerf 基準,來衡量如 Google 的 TPU 等尖端 AI 硬件的速度。然而,盡管圍繞 AI 安全已經做了大量工作,目前仍然沒有類似的 AI 安全標準基準。


  • MLCommons

    https://mlcommons.org/en/

  • MLPerf

    https://mlcommons.org/en/news/mlperf-inference-storage-q323/

  • AI 安全

    https://blog.google/technology/ai/our-responsible-approach-to-building-guardrails-for-generative-ai/


我們很高興能夠為非營利組織 MLCommons Association 開展標準 AI 安全基準制定的工作提供支持。制定有效且值得信賴的基準,不僅要有先進的 AI 安全測試技術,還需要綜合廣泛的觀點。MLCommons 的工作旨在匯集學術界和業界的專家研究人員來制定衡量 AI 系統安全性的標準基準,并以每個人都能理解的分數呈現。我們鼓勵社區的所有成員 (從 AI 研究人員到政策專家)加入我們,為這項工作奉獻自己的力量。


  • 加入我們

    https://mlcommons.org/ai-safety



為什么要制定 AI 安全基準?


像大多數先進技術一樣,AI 具有帶來巨大好處的潛力,但是如果缺乏適當的約束,也可能會導致負面結果。例如,AI 技術可以在各種活動中輔助人類提高生產力 (如提高健康診斷的準確性和研究疾病、分析能源使用情況等)。然而,如果沒有足夠的預防措施,AI 也可能被用來支持有害或惡意活動,并導致存在偏見或令人反感的響應。

  • 改善健康診斷
    https://blog.google/technology/health/how-ai-can-improve-health-for-everyone-everywhere/
  • 能源使用情況
    https://blog.google/outreach-initiatives/sustainability/google-transportation-energy-emissions-reduction/

通過為不同類別提供標準的安全措施,如有害使用、超范圍響應、AI 控制風險等,標準的 AI 安全基準可以幫助社會從 AI 中獲益,同時確保采取足夠的預防措施來減輕這些風險。最初,新興的安全基準有助于推動 AI 安全研究,并為負責任的 AI 開發提供信息。隨著時間推移和技術成熟,這些基準也可以為 AI 系統的用戶和購買者提供信息,最終,可能成為政策制定者的寶貴工具。


在計算機硬件領域,基準 (如 SPEC、TPC) 現已展現出驚人的能力,讓整個行業能夠在追求進步的過程中,保持研究、工程甚至營銷部門的步調一致。我們相信,標準 AI 安全基準有助于在這一重要領域實現同樣的目標。


  • SPEC
    https://en.wikipedia.org/wiki/Standard_Performance_Evaluation_Corporation
  • TPC
    https://en.wikipedia.org/wiki/Transaction_Processing_Performance_Council


標準 AI 安全基準是什么?


在學術研究和企業工作中,人們開展了一系列 AI 安全測試 (如 RealToxicityPromptsStanford HELM 公平性、偏差、毒性測量以及 Google 的生成式 AI 指引)。但是,大多數測試都側重于為 AI 系統提供提示,并對輸出進行算法評分,雖然這是一個有用的開端,但僅限于測試提示的范圍。此外,他們通常使用開放數據集進行提示和響應,而這些提示和響應可能已被 (通常是無意中) 納入訓練數據中。


  • RealToxicityPrompts
    https://arxiv.org/abs/2009.11462
  • Stanford HELM
    https://crfm.stanford.edu/2022/11/17/helm.html
  • Google 的生成式 AI 指引
    https://blog.google/technology/ai/our-responsible-approach-to-building-guardrails-for-generative-ai/

MLCommons 提議,按多方利益相關者流程選擇測試,并按子集分組,以衡量特定 AI 用例的安全性,并將這些需要有專業技術背景才能理解的測試結果轉化為每個人都能理解的分數。MLCommons 建議打造一個集中現有測試的平臺,并鼓勵開展更嚴格的測試,以推動先進技術的發展。用戶既可以通過在線測試生成和查看分數,也可以借助私人測試引擎的離線測試來訪問這些測試。


共同努力下的 AI 安全基準


負責任的 AI 開發者使用多種安全措施,包括自動測試、手動測試、紅隊測試 (red teaming,其中人類測試人員試圖產生對抗性結果)、軟件方面的限制、數據和模型最佳實踐以及審計。但是,確定是否已采取足夠的預防措施可能具有挑戰性,尤其是在開發 AI 系統的公司群體不斷發展且具有多元化特點的情況下。標準 AI 基準能夠提供強大的工具,幫助供應商和用戶衡量 AI 安全性,以及鼓勵資源生態系統和專注于提高 AI 安全性的專業提供商,推進社區以負責任的方式發展。


同時,如果沒有社區參與,就無法制定成熟、有效且值得信賴的 AI 安全基準。這項工作需要研究人員和工程師齊心協力,為安全測試技術提供創新且實用的改進,使測試更加嚴格高效。同樣,企業也需要團結一致,提供測試數據、工程支持和經濟支持。AI 安全的某些方面可能具有主觀性,要建立得到廣泛共識支持的可信基準需要考慮多方觀點,包括公眾代言人、政策制定者、學者、工程師、數據工作者、商界領袖和企業家的觀點。



Google 對 MLCommons 的支持


Google 以 2018 年宣布AI 準則為基礎,致力于以安全、可靠和值得信賴的特定標準開發和使用 AI (您可以參閱我們 2019 年、2020 年、2021 年2022 年的更新)。我們還在關鍵承諾方面取得了重大進展,這將幫助您大膽且負責任地開發 AI,從而造福所有人。


  • 宣布
    https://blog.google/technology/ai/ai-principles/
  • AI 準則
    https://ai.google/responsibility/principles/
  • 2019 年
    https://ai.google/static/documents/ai-principles-2019-progress-update.pdf
  • 2020 年
    https://ai.google/static/documents/ai-principles-2020-progress-update.pdf
  • 2021 年
    https://ai.google/static/documents/ai-principles-2021-progress-update.pdf
  • 2022 年
    https://ai.google/static/documents/ai-principles-2022-progress-update.pdf
  • 進展
    https://static.googleusercontent.com/media/publicpolicy.google/en//resources/whcommitments.pdf

Google 正在以多種方式支持 MLCommons Association 在制定 AI 安全基準方面所作的工作。

  1. 測試平臺:我們聯合其他公司提供資金,支持測試平臺的開發。
  2. 技術專長和資源:我們不斷提供技術專長和資源,例如 Monk 膚色示例數據集,以幫助確保基準設計優良且有效。
  3. 數據集:我們正在為多語言表征偏差以及針對刻板印象危害 (如 SeeGULL 和 SPICE) 的外部測試提供內部數據集。此外,我們還共享以負責任和包容性的方式收集人工注釋為重點的數據集,如 DICESSRP

  • Monk 膚色量表示例數據集
    https://skintone.google/mste-dataset
  • SPICE
    https://github.com/google-research-datasets/SPICE/tree/main
  • DICES
    https://arxiv.org/abs/2306.11247
  • SRP
    https://www.kaggle.com/datasets/google/jigsaw-specialized-rater-pools-dataset


未來方向


我們相信,這些基準有助于推進 AI 安全研究,確保以負責任的方式開發和部署 AI 系統。AI 安全屬于集體行動問題。前沿模型論壇 (Frontier Model Forum) 和 AI 伙伴關系 (Partnership on AI) 等團體也在重要的標準化舉措方面發揮著領導作用。我們很高興從一開始便與這些團體和 MLCommons 一起開展這項工作,也期待通過更多的共同努力,來促進以負責任的方式開發新的生成式 AI 工具。歡迎您持續關注我們,及時獲悉更多資訊。


  • 集體行動問題
    https://blog.google/technology/ai/a-shared-agenda-for-responsible-ai-progress/
  • 前沿模型論壇
    https://blog.google/outreach-initiatives/public-policy/google-microsoft-openai-anthropic-frontier-model-forum/
  • AI 伙伴關系
    https://partnershiponai.org/


致謝


非常感謝為這項工作做出貢獻的 Google 團隊成員: Peter Mattson、Lora Aroyo、Chris Welty、Kathy Meier-Hellstern、Parker Barnes、Tulsee Doshi、Manvinder Singh、Brian Goldman、Nitesh Goyal、Alice Friend、Nicole Delange、Kerry Barker、Madeleine Elish、Shruti Sheth、Dawn Bloxwich、William Isaac、Christina Butterfield。





原文標題:攜手 MLCommons,制定有效且值得信賴的 AI 安全基準

文章出處:【微信公眾號:谷歌開發者】歡迎添加關注!文章轉載請注明出處。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 谷歌
    +關注

    關注

    27

    文章

    6223

    瀏覽量

    107523

原文標題:攜手 MLCommons,制定有效且值得信賴的 AI 安全基準

文章出處:【微信號:Google_Developers,微信公眾號:谷歌開發者】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    威盛電子推出天車安全AI監控方案

    近日,威盛電子宣布推出”威盛天車安全AI監控方案”。該方案基于自主研發的AI技術,集成行人姿態識別、精準防撞預警和智能分區警示等功能,大幅提升橋式起重機(天車)的安全管理效率。目前,該
    的頭像 發表于 05-21 13:55 ?196次閱讀

    國芯科技與美電科技攜手推出AI傳感器模組

    2024年,國芯科技與戰略合作伙伴深圳美電科技有限公司(以下簡稱“美電科技”)展開了深度合作。雙方以國芯科技首顆端側AI芯片CCR4001S為核心,攜手推出AI傳感器模組,迅速緊密地
    的頭像 發表于 03-18 16:34 ?445次閱讀
    國芯科技與美電科技<b class='flag-5'>攜手</b>推出<b class='flag-5'>AI</b>傳感器模組

    Banana Pi 與瑞薩電子攜手共同推動開源創新:BPI-AI2N

    與嵌入式系統的優勢,該聯合解決方案旨在打造更開放、更靈活的軟硬件平臺。 “此次合作將提升瑞薩在開源社區的知名度。基于 RZ/V2N 的突破性 BPI-AI2N SOM 有望對多個行業產生重大影響,為工程師
    發表于 03-12 09:43

    芯海科技BMS:讓每塊電池的安全值得信賴

    電池作為能源存儲的核心組件,廣泛應用于各類電子設備中。隨著快充技術的普遍應用,大功率快充對電芯及電池管理系統(BMS)提出了更高的安全要求。一旦電池管理系統的安全防護不足,就極易引發電池起火、燃燒
    發表于 02-11 17:33 ?178次閱讀
    芯??萍糂MS:讓每塊電池的<b class='flag-5'>安全</b>都<b class='flag-5'>值得</b><b class='flag-5'>信賴</b>

    芯海科技BMS:讓每塊電池的安全值得信賴

    電池作為能源存儲的核心組件,廣泛應用于各類電子設備中。隨著快充技術的普遍應用,大功率快充對電芯及電池管理系統(BMS)提出了更高的安全要求。一旦電池管理系統的安全防護不足,就極易引發電池起火、燃燒
    的頭像 發表于 02-10 18:33 ?345次閱讀
    芯海科技BMS:讓每塊電池的<b class='flag-5'>安全</b>都<b class='flag-5'>值得</b><b class='flag-5'>信賴</b>

    smart與元戎啟行攜手,共研智能駕駛AI大模型

    近日,智能汽車品牌smart與領先的人工智能企業元戎啟行正式宣布達成戰略合作。此次合作旨在共同研發智能駕駛AI大模型技術,為新一代智能駕駛系統注入強大動力。 雙方將攜手打造基于AI大模型的智能駕駛
    的頭像 發表于 01-18 11:25 ?1349次閱讀

    徐工汽車榮獲2025年度值得用戶信賴創新城市物流裝備鼎新獎

    近日,在第十屆發現信賴中國卡車用戶調查暨評選活動中,徐工4米4大輕卡憑借在新能源技術上的領先優勢和創新突破,一舉榮獲“2025年度值得用戶信賴創新城市物流裝備鼎新獎”。
    的頭像 發表于 01-14 10:25 ?498次閱讀

    MLCommons推出AI基準測試0.5版

    開放式機器學習工程聯盟 MLCommons 在美國加州當地時間公布推出適用于消費類 PC 的 AI 性能的 MLPerf Client 基準測試的 0.5 版,這是該測試的第一個公開版本
    的頭像 發表于 12-12 16:47 ?751次閱讀

    Momenta以AI技術助力交通安全建設

    近日,為迎接第十三個“全國交通安全日”,蘇州交警與Momenta攜手圍繞“文明交通,攜手共創”主題開展特別活動,全力踐行將AI技術融入交通安全
    的頭像 發表于 12-03 16:13 ?556次閱讀

    浪潮信息AI存儲性能測試的領先之道

    AI技術的無限可能。近日,在MLCommons的子項目MLPerf Storage v1.0性能基準評測中,浪潮信息再度展現了在AI存儲領域的卓越實力。
    的頭像 發表于 10-29 16:30 ?572次閱讀
    浪潮信息<b class='flag-5'>AI</b>存儲性能測試的領先之道

    浪潮信息AS13000G7榮獲MLPerf? AI存儲基準測試五項性能全球第一

    北京2024年9月27日?/美通社/ -- 9月25日,MLCommons協會發布最新MLPerf? Storage v1.0 AI存儲基準測試成績。浪潮信息分布式存儲平臺AS13000G7表現出
    的頭像 發表于 09-28 16:46 ?368次閱讀
    浪潮信息AS13000G7榮獲MLPerf? <b class='flag-5'>AI</b>存儲<b class='flag-5'>基準</b>測試五項性能全球第一

    Freepik攜手Magnific AI推出AI圖像生成器

    近日,設計資源巨頭Freepik攜手Magnific AI,共同推出了革命性的AI圖像生成器——Freepik Mystic,這一里程碑式的發布標志著AI圖像創作領域邁入了一個全新的高
    的頭像 發表于 08-30 16:23 ?1483次閱讀

    甲骨文攜手Rai Way,強化AI應用與數據安全

    近日,全球領先的軟件巨頭甲骨文與意大利基礎設施服務提供商Rai Way宣布達成重要合作。雙方將攜手在Rai Way分布廣泛的數據中心部署甲骨文的人工智能應用系統,為企業客戶帶來前所未有的服務體驗與安全保障。
    的頭像 發表于 07-27 17:19 ?2481次閱讀

    Claude安卓版發布,旨在為用戶提供信賴AI助手

     7月17日最新資訊,繼今年5月成功推出iOS版本后,Anthropic公司今日正式發布了Claude應用的安卓版本,該應用專為安卓8.0及以上版本設備設計,旨在為用戶提供一款高效值得信賴
    的頭像 發表于 07-17 16:56 ?1035次閱讀

    平衡創新與倫理:AI時代的隱私保護和算法公平

    成了一把雙刃劍,其銳利的一面正逐漸指向我們的核心價值。面對這些挑戰,制定一套有效AI治理框架和隱私保護機制變得迫在眉睫。 確保AI決策的透明度是解決這些問題的關鍵一步。透明度不僅
    發表于 07-16 15:07