人工智能(AI)滲透到我們的日常生活中,決定諸如誰獲得福利,誰入圍工作,甚至發(fā)現(xiàn)農(nóng)場植物中的疾病之類的事情。但是,人工智能也帶來了無數(shù)挑戰(zhàn),尤其是對于設(shè)計人工智能系統(tǒng)的企業(yè)而言。
在過去的30多年中,人工智能已經(jīng)離開實驗室,出現(xiàn)在我們的日常生活中。“這是AI的可笑之處,它正在觸動人們的生活,但他們甚至可能沒有意識到。”悉尼西南大學(xué)悉尼分校計算機(jī)科學(xué)與工程學(xué)院的人工智能科學(xué)教授Toby Walsh說,他領(lǐng)導(dǎo)著Data61算法決策理論小組。
沃爾什(Walsh)教授最近被提名為14位享有盛名的澳大利亞獲獎?wù)咧唬@得澳大利亞研究委員會(Australian Research Council)授予的310萬美元獎金,以繼續(xù)他的研究,以了解如何構(gòu)建人類可以信賴的AI系統(tǒng)。
人工智能今天面臨的挑戰(zhàn)
沃爾什教授解釋說,每次您在Facebook或Twitter提要上閱讀故事時,都是AI會向您推薦這些故事,而您在Netflix上觀看的所有電影中的三分之一也來自算法。他警告說,但是即使這種聽起來無害的活動也可以轉(zhuǎn)移到機(jī)器上,但也會對社會產(chǎn)生腐蝕作用。
確實,他的研究發(fā)現(xiàn)了不良影響的范圍之廣。他說:“它們會產(chǎn)生過濾泡,最終導(dǎo)致虛假新聞或選舉被篡改的可能性。”
雖然AI可以通過消除瑣碎的工作來使社會更公平,更公正地生活,但它也可用于損害社會的凝聚力。實際上,沃爾什教授說,他對當(dāng)今更多的世俗誤用AI感到擔(dān)憂,而不是對未來超級智能AI的擔(dān)憂。他解釋說:“我更加擔(dān)心自動化在社會中加劇的不平等現(xiàn)象。”
算法可能像人類一樣有偏見,這是當(dāng)今AI面臨的最大挑戰(zhàn)之一。沃爾什教授繼續(xù)說:“更糟糕的是,它們不以任何法律方式負(fù)責(zé),也不透明。”
因此,Walsh教授在研究中著眼于如何構(gòu)建AI并驗證AI系統(tǒng)做出的公平?jīng)Q策,這些決策可以被追蹤,解釋和審計,并且尊重人們的隱私。
但是,那些已經(jīng)在使用AI的公司,即“五大”(Facebook,亞馬遜,蘋果,微軟和Google)呢?如此強(qiáng)大的科技巨頭如何設(shè)計人們可以信賴的AI流程?
Google根據(jù)七項原則設(shè)計AI
2018年3月,谷歌宣布與五角大樓在``Project Maven‘’上合作,通過AI幫助分析和解釋無人機(jī)視頻。此后,這家科技巨頭發(fā)布了七項AI原則,構(gòu)成了道德憲章,指導(dǎo)Google在AI的所有開發(fā)和使用,并禁止在武器和侵犯人權(quán)行為中使用AI。
但有人說,自2018年以來的許多考慮并沒有消失。人權(quán)觀察組織(Human Rights Watch)最近發(fā)表了一份報告,呼吁禁止使用“完全自主武器”。確實,將AI永久性使用的潛力是巨大的,但是這種強(qiáng)大的技術(shù)提出了同樣強(qiáng)烈的疑問,即該技術(shù)對社會的使用和影響,承認(rèn)Google澳大利亞工程總監(jiān)Daniel Nadasi。
他警告開發(fā)AI的任何人都應(yīng)該堅持最高的道德標(biāo)準(zhǔn),并仔細(xì)考慮如何使用這項技術(shù)來造福整個社會。確實,在過去的幾年中,Google一直在使用AI來完成許多任務(wù),例如識別圖像中的項目,自動翻譯以及為您的電子郵件提出明智的建議。
-
Google
+關(guān)注
關(guān)注
5文章
1789瀏覽量
59055 -
人工智能
+關(guān)注
關(guān)注
1807文章
49029瀏覽量
249607
發(fā)布評論請先 登錄
最新人工智能硬件培訓(xùn)AI 基礎(chǔ)入門學(xué)習(xí)課程參考2025版(大模型篇)
【「具身智能機(jī)器人系統(tǒng)」閱讀體驗】1.初步理解具身智能
19位國際頂尖學(xué)者聯(lián)袂撰寫《重新審視邊緣人工智能:機(jī)遇與挑戰(zhàn)》

評論