人工智能的最新進展引發(fā)了幾個道德困境。也許其中最重要的是人類是否能夠控制自主機器。
由人工智能驅(qū)動的機器人負(fù)責(zé)家務(wù)或自動駕駛車輛(如亞馬遜)越來越常見。雖然這類技術(shù)使生活更輕松,但也可能使生活更復(fù)雜。
一個國際研究小組警告說,創(chuàng)建過于強大和獨立的軟件有潛在的風(fēng)險。通過一系列的理論計算,科學(xué)家們探索了如何控制人工智能。根據(jù)《人工智能研究門戶雜志》發(fā)表的研究報告,他的結(jié)論是不可能。
“控制世界的超級智能機器聽起來像科幻小說。但是,已經(jīng)有一些機器能夠獨立執(zhí)行某些重要任務(wù),而程序員卻不完全了解他們是如何學(xué)習(xí)的,這種情況在某種程度上可能會變得無法控制,對人類是危險的,”這項研究的合著者曼努埃爾塞布賴恩在馬克斯普朗克人類發(fā)展研究所說。
科學(xué)家們嘗試了兩種控制人工智能的方法。一種是將它與互聯(lián)網(wǎng)和其他設(shè)備隔離開,從而限制了它與外界的聯(lián)系。問題是,這將大大降低其執(zhí)行為其創(chuàng)建功能的能力。
另一種是設(shè)計一種“理論上的遏制算法”,以確保人工智能“在任何情況下都不會傷害人”。但是,對當(dāng)前計算范式的分析表明,無法創(chuàng)建此類算法。
“如果將問題分解為理論計算的基本規(guī)則,結(jié)果表明,指示AI不要破壞世界的算法可能會無意間停止其自身的運行。如果發(fā)生這種情況,我們將不知道遏制算法是否會繼續(xù)分析威脅,或者是否會停止遏制有害的AI。實際上,這使遏制算法無法使用,”另一位研究人員Iyad Rahwan解釋說。
基于這些計算,問題在于沒有算法可以確定AI是否會損害世界。研究人員還指出,人類甚至可能不知道什么時候超級智能機器才出現(xiàn),因為確定一種設(shè)備是否具有比人類優(yōu)越的智能與遏制問題是同一領(lǐng)域。
責(zé)任編輯:YYX
-
人工智能
+關(guān)注
關(guān)注
1804文章
48765瀏覽量
246755
發(fā)布評論請先 登錄
深開鴻亮相“小小科學(xué)家”品牌發(fā)布暨科學(xué)探索研學(xué)營開營活動

西湖大學(xué):科學(xué)家+AI,科研新范式的樣本

評論