當前,人工智能技術(shù)已經(jīng)被應(yīng)用于監(jiān)控攝像頭中,出現(xiàn)在交通、安防、零售、社區(qū)等多個場景。而對抗性樣本有可能欺騙神經(jīng)網(wǎng)絡(luò),導致其產(chǎn)生錯誤的輸出。
近日,來自比利時魯汶大學的研究人員,在預印本平臺(arXiv.org)上分享的一篇論文中,研究人員展示了簡單的印刷圖案如何能夠欺騙一個用來識別圖像中人物的人工智能系統(tǒng)。
研究人員打印出特別設(shè)計的彩色圖片并掛在脖子上,從人工智能的角度來看,這可能相當于“隱形斗篷”,也就是說,人工智能檢測不出右邊的人。
正如研究人員寫道:“我們相信,如果我們將這項技術(shù)與復雜的服裝模擬技術(shù)相結(jié)合,就可以設(shè)計出一種T恤印花,它可以讓一個人在自動監(jiān)控攝像頭下幾乎隱形。”
這可能看起來很奇怪,但實際上是人工智能世界中一個眾所周知的現(xiàn)象。這些類型的模式被稱為對抗性樣本,它們利用計算機視覺系統(tǒng)的缺陷來誘騙它們看到不存在的東西。
在過去,對抗性樣本被用來欺騙面部識別系統(tǒng)。許多研究人員警告說,對抗性的例子具有潛在的危險性。例如,它們可以用來欺騙自動駕駛汽車,將停車標志當成路燈柱,或者它們可以欺騙旨在識別疾病的醫(yī)學人工智能視覺系統(tǒng),這可能是為了醫(yī)療欺詐,甚至是故意造成傷害。
如何對對抗性樣本進行有效的防御是很多學者的重要研究課題。不過,到目前為止,研究人員尚未找到針對對抗樣本的最佳防御策略,希望在不久之后,該研究領(lǐng)域會出現(xiàn)突破性的進展。
-
人工智能
+關(guān)注
關(guān)注
1804文章
48783瀏覽量
246861
發(fā)布評論請先 登錄
評論