女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

機器學習漏洞或遭黑客攻擊,人工智能面臨重大挑戰

OaXG_jingzhengl ? 來源:未知 ? 作者:胡薇 ? 2018-09-14 15:02 ? 次閱讀

據國外媒體報道,數據為人工智能革命提供了動力。然而安全專家們發現,完全可以通過篡改數據集或現實環境來攻擊人工智能,對抗性的機器學習研究表明人工智能可能會被黑客攻擊,從而做出完全錯誤的決策。

神經網絡把一張關于烏龜的照片看成了來復槍。一輛自動駕駛汽車從一個停車標志旁飛馳而過,只是因為一個精心制作的貼紙迷惑了電腦視覺。一副眼鏡就把面部識別技術搞糊涂了,誤以為某人是好萊塢女影星米拉·喬沃維奇(Milla Jovovich)。對人工智能進行黑客攻擊成為了一種新的安全危機。

為了防止一些犯罪分子想要通過篡改數據集或現實環境來攻擊人工智能,研究人員轉向對抗性的機器學習研究。在這種情況下,研究人員對數據進行修改,從而欺騙神經網絡和人工智能系統,讓它們看到不存在的東西,忽略存在的東西,或者使得其關于分類對象的決策完全錯誤。

就像谷歌和紐約大學研究人員所做的那樣,在一輛校車的照片上加上一層對人類來說無形的數據噪聲,神經網絡就會報告說,它幾乎可以肯定那是一只鴕鳥。不僅僅是圖像可以這樣:研究人員已經將隱藏的語音指令嵌入到廣播中,從而控制智能手機,同時不會讓人們察覺。

雖然這類工作現在被描述為一種攻擊,但從哲學角度來說,對抗性的例子最初被視為神經網絡設計中的一個近乎盲點:我們假設機器以我們同樣的方式看東西,它們用與我們相似的標準來識別物體。2014年,谷歌研究人員在一篇關于“神經網絡的有趣特性”的論文中首次描述了這一想法,該論文描述了如何在圖像中添加“擾動”元素會導致神經網絡出現錯誤——他們稱之為“對抗性示例”。他們發現,微小的扭曲就可能會騙過神經網絡,使其誤讀一個數字或誤將校車當成別的什么東西。這項研究對神經網絡 “固有盲點”以及它們在學習過程中的“非直覺特征”提出了質疑。換句話說,我們并不真正了解神經網絡是如何運作的。

加州大學伯克利分校(University of California, Berkeley)計算機科學教授唐恩·宋(Dawn Song)表示:“對抗性示例說明,我們對深度學習的原理及其局限性的理解仍然非常有限。”宋是四所大學聯合進行對抗性研究的幾位研究人員之一,他們共同開發了停車標志貼紙來干擾自動駕駛汽車。

華盛頓大學(University of Washington)計算機安全研究員厄爾倫斯·費爾南德斯(Earlence Fernandes)也從事停車標志研究,他表示:“攻擊的范圍很廣,取決于攻擊者處在機器學習模型生成過程的哪個階段。” 費爾南德斯舉例說,在開發機器學習模型時可進行訓練時間攻擊,也就是使用惡意數據來訓練系統。他表示:“在人臉檢測算法中,攻擊者可能會用惡意數據對模型施以毒害,從而使檢測算法將攻擊者的臉識別為授權人。”

另一方面,推理時間攻擊則是通過一系列算法——比如快速梯度符號法(Fast Gradient Sign Method,FGSM)和當前最優攻擊方法(Carlini and Wagner)是兩種最流行的算法——向模型顯示精心制作的輸入,從而迷惑神經網絡。

隨著人工智能滲透到我們生活的方方面面——駕駛汽車、分析視頻監控系統、通過面部識別某人身份——對這些系統的攻擊變得更加可能,也更加危險。黑客修改路邊交通標志可能會導致車禍和人員傷害。對數據機器學習系統的細微改變也會導致人工智能系統做出的決策出現偏差。

但我們不應該過分擔心。麻省理工學院的研究員安尼施·安塞也(Anish Athalye)指出,“據我們所知,這種類型的攻擊目前還沒有在被現實世界中的惡意組織所采納過。但考慮到這一領域的所有研究,似乎很多機器學習系統都非常脆弱,如果現實世界的系統很容易就遭到了這種攻擊,我也不會感到驚訝。”

安塞也自己的研究旨在使對抗性攻擊更加健壯。一些被歸為“標準”的攻擊只從特定的角度進行,而另一些攻擊則不管神經網絡從什么角度觀察物體或圖像都可以進行。 “標準的對抗性例子是通過微調圖像中的像素,從而將神經網絡對目標圖像的分類轉移到其它類別——比如說把貓的圖像歸類為鱷梨沙拉醬。”他說,“一次又一次地重復這個過程,做出微小的改變,結果是有可能制作出一幅對人來說像一樣東西的圖像,卻會讓機器誤一位完全不同的東西。”他說,研究表明,標準對抗性攻擊是“脆弱的”,在現實世界中不太可能站得住腳。

因此,安塞也和他在麻省理工學院人工智能實驗室LabSix的同事們開發了更好的示例,優化了攻擊圖像,使其不用考慮角度或距離問題都可起作用。他說:“我們還把它擴展到3D圖像,這樣你就可以有一個在人類看起來像烏龜的物體,但從機器角度觀察卻完全不同。”這其中就包括他的3D打印玩具龜,但在ImageNet分類器看來,它就像一把來復槍。

如果攻擊只能以精確的角度起作用,或者干擾因素很容易被人類發現,那么攻擊就沒有什么用處。以自動駕駛汽車為例,它們往往通過依賴神經網絡識別物體的計算機視覺技術來觀察外部世界。這樣的話,任何對抗性的招數都必須在每個觀察角度起作用,也不會受到遠近距離的影響,更不會被人類司機注意到,畢竟沒有人能讀懂一個被涂過油漆的交通標志。包括費爾南德斯(Fernandes)和宋(Song)在內的研究人員都成功地做到了這一點,他們使用不會模糊標識的細微油漆標記以及看起來像涂鴉的貼紙干擾路邊的停車標志,卻導致神經網絡將“停止”解釋為速度限制。

“從一個較高的層次看,這種攻擊的方式是訪問目標深度學習模型,然后運行一個算法來計算需要對物理對象進行何種編輯,從而使生成的圖像從人類視覺看與某種原始物體相似,但對于機器學習模型來說完全是另一種東西,”費爾南德斯說。“在這種情況下,我們的算法輸出需要在圖像中添加的元素。在我們的例子中就是貼紙,所以我們把它們打印在紙上,然后簡單地貼在一個路邊的停止標志上。

這沒有理由引起恐慌。費爾南德斯解釋說,僅僅在停止交通標志上貼上這些貼紙是不會讓自動駕駛汽車發生事故的。自動駕駛汽車會使用多個傳感器和算法,不會就任何單一的機器學習模型做出決定。“因此,盡管我們的工作可以愚弄單一的機器學習模型,但這并不意味著這種愚弄就足以造成真實傷害,”他說。

開發對抗性的示例并非易事,通常需要搞清楚包括模型架構在內的神經網絡技術細節,這往往稱為“白盒”訪問。也就是說,真正具有強大破壞性的攻擊并不需要詳細的神經網絡信息;事實可能會證明,這些黑盒攻擊對外部攻擊系統更有用,因為它們可以應用到不同的神經網絡。

現在需要開展工作,從而防止機器學習因其固有的弱點而變得無用。雖然已經有了很多的解決方案,但到目前為止還沒有明確的防御措施。密歇根大學(University of Michigan)研究員凱文·埃克霍爾特(Kevin Eykholt)表示:“檢測對抗性示例的防御措施,以及消除對抗性示例存在的防御措施,是相關研究領域的一個活躍領域。很多新防御被提出,而又以非常快的速度被打破。”他補充說:“在設計機器學習系統的時候不是盲目的設計系統,重要的是要注意并可能減輕對抗性攻擊的特定風險,并考慮到一旦發生相關情況該做出何種反應。”

安塞也說,有一個想法很有希望,那就是訓練神經網絡,通過對抗性示例包含在訓練數據中來提高識別神經網絡的健壯性。他說:“通過這種方式,神經網絡‘學會’對對抗性示例有一定的抵抗力。”

費爾南德斯說,在機器學習的核心發現這樣的缺陷并不令人驚訝,因為系統通常在普及之前并不會經過良好的測試。“隨著機器學習變得越來越普遍,安全研究人員會開始從對抗的角度來研究它,并發現其中一些可以利用的東西,這是很自然的,” 費爾南德斯如是指出。

這不僅是一個技術缺陷,也是一個哲學假設。首先,當攻擊者可以自由操縱數據獲取優勢時,機器學習開發人員會假定訓練數據和測試數據是相似的。第二,我們往往認為神經網絡像我們一樣思考,但實際上并不是如此;神經網絡用來識別玩具龜的元素與我們所尋找的不同,而這種差異性正是攻擊的突破口。費爾南德斯說:“神經網絡是非常粗略地模擬人類大腦。試圖將它們視為與我們大腦類似的運作方式,可能并不是思考它們的最佳方式。”

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1804

    文章

    48677

    瀏覽量

    246376
  • 機器學習
    +關注

    關注

    66

    文章

    8490

    瀏覽量

    134069

原文標題:黑客攻擊機器學習漏洞將是人工智能面臨的挑戰

文章出處:【微信號:jingzhenglizixun,微信公眾號:機器人博覽】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    人工智能機器學習以及Edge AI的概念與應用

    人工智能相關各種技術的概念介紹,以及先進的Edge AI(邊緣人工智能)的最新發展與相關應用。 人工智能機器學習是現代科技的核心技術
    的頭像 發表于 01-25 17:37 ?797次閱讀
    <b class='flag-5'>人工智能</b>和<b class='flag-5'>機器</b><b class='flag-5'>學習</b>以及Edge AI的概念與應用

    【「具身智能機器人系統」閱讀體驗】1.初步理解具身智能

    人工智能機器人技術和計算系統交叉領域感興趣的讀者來說不可或缺的書。這本書深入探討了具身智能這一結合物理機器人和智能算法的領域,該領域正在
    發表于 12-28 21:12

    【「具身智能機器人系統」閱讀體驗】+數據在具身人工智能中的價值

    嵌入式人工智能(EAI)將人工智能集成到機器人等物理實體中,使它們能夠感知、學習環境并與之動態交互。這種能力使此類機器人能夠在人類社會中有效
    發表于 12-24 00:33

    【「具身智能機器人系統」閱讀體驗】+初品的體驗

    動態互動的。 該理論強調智能行為源于智能體的物理存在和行為能力,智能體必須具備感知環境并在其中執行任務的能力。具身智能的實現涵蓋了機器
    發表于 12-20 19:17

    嵌入式和人工智能究竟是什么關系?

    嵌入式和人工智能究竟是什么關系? 嵌入式系統是一種特殊的系統,它通常被嵌入到其他設備機器中,以實現特定功能。嵌入式系統具有非常強的適應性和靈活性,能夠根據用戶需求進行定制化設計。它廣泛應用于各種
    發表于 11-14 16:39

    人工智能機器學習和深度學習存在什么區別

    人工智能指的是在某種程度上顯示出類似人類智能的設備。AI有很多技術,但其中一個很大的子集是機器學習——讓算法從數據中學習
    發表于 10-24 17:22 ?2755次閱讀
    <b class='flag-5'>人工智能</b>、<b class='flag-5'>機器</b><b class='flag-5'>學習</b>和深度<b class='flag-5'>學習</b>存在什么區別

    《AI for Science:人工智能驅動科學創新》第6章人AI與能源科學讀后感

    、優化等方面的應用有了更清晰的認識。特別是書中提到的基于大數據和機器學習的能源管理系統,通過實時監測和分析能源數據,實現了能源的高效利用和智能化管理。 其次,第6章通過多個案例展示了人工智能
    發表于 10-14 09:27

    AI for Science:人工智能驅動科學創新》第4章-AI與生命科學讀后感

    很幸運社區給我一個閱讀此書的機會,感謝平臺。 《AI for Science:人工智能驅動科學創新》第4章關于AI與生命科學的部分,為我們揭示了人工智能技術在生命科學領域中的廣泛應用和深遠影響。在
    發表于 10-14 09:21

    《AI for Science:人工智能驅動科學創新》第二章AI for Science的技術支撐學習心得

    人工智能在科學研究中的核心技術,包括機器學習、深度學習、神經網絡等。這些技術構成了AI for Science的基石,使得AI能夠處理和分析復雜的數據集,從而發現隱藏在數據中的模式和規
    發表于 10-14 09:16

    《AI for Science:人工智能驅動科學創新》第一章人工智能驅動的科學創新學習心得

    人工智能:科學研究的加速器 第一章清晰地闡述了人工智能作為科學研究工具的強大功能。通過機器學習、深度學習等先進技術,AI能夠處理和分析海量
    發表于 10-14 09:12

    risc-v在人工智能圖像處理應用前景分析

    RISC-V和Arm內核及其定制的機器學習和浮點運算單元,用于處理復雜的人工智能圖像處理任務。 四、未來發展趨勢 隨著人工智能技術的不斷發展和普及,RISC-V在
    發表于 09-28 11:00

    名單公布!【書籍評測活動NO.44】AI for Science:人工智能驅動科學創新

    、污染治理、碳減排三個方面介紹了人工智能為環境科學引入的新價值和新機遇。 第8章探討了AI for Science在快速發展過程中面臨的機遇和挑戰,并對“平臺科研”模式進行了展望。 申請時間
    發表于 09-09 13:54

    FPGA在人工智能中的應用有哪些?

    FPGA(現場可編程門陣列)在人工智能領域的應用非常廣泛,主要體現在以下幾個方面: 一、深度學習加速 訓練和推理過程加速:FPGA可以用來加速深度學習的訓練和推理過程。由于其高并行性和低延遲特性
    發表于 07-29 17:05

    人工智能機器學習和深度學習是什么

    在科技日新月異的今天,人工智能(Artificial Intelligence, AI)、機器學習(Machine Learning, ML)和深度學習(Deep Learning,
    的頭像 發表于 07-03 18:22 ?2532次閱讀

    環球晶黑客攻擊

    6月14日消息,環球晶6月13日發布公告,稱部分資訊系統遭受黑客攻擊,目前正積極會同技術專家協助調查和復原工作。環球晶表示,少數廠區部分產線受到影響,將會先使用庫存出貨因應,若有不足,有的可能要延遲
    的頭像 發表于 06-14 16:27 ?732次閱讀
    環球晶<b class='flag-5'>遭</b><b class='flag-5'>黑客</b><b class='flag-5'>攻擊</b>!