從使用聊天機器人在線訂購比薩餅到生成非虛構文字并優化物流流程,人工智能使許多驚人的事情成為可能。它不僅使企業能夠自動化和優化復雜的流程,而且還幫助人們進行研究,分析大量數據并提高了智能手機等個人設備的安全性。
但是,隨著人工智能技術的發展和發展,其幫助網絡犯罪分子獲取私有數據的潛力也日益增長。全世界許多國家的政府都對啟用AI的工具處理的敏感數據的安全性有合理的擔憂,并且已經在制定相應的法律和準則。除了安全風險外,許多人還對AI如何改變人們互動的方式以及潛在的工作損失感到擔憂。
顯然,通往真正合乎道德的AI之路是困難的,在我們使之成為可能之前,我們必須克服以下障礙。
1.收入不平等
這個問題已經成為頭條新聞了一段時間了。許多經濟學家,科學家和分析家一直在研究人工智能對工資的影響,他們的結論遠非正面。
“我讀到的數據是,技術是導致最近不平等加劇的主要動力。”《技術評論》援引麻省理工學院管理學教授埃里克·布林喬爾夫森(Erik Brynjolfson)的話說,“這是最大的因素。”
確實,隨著越來越多的企業正在考慮實現其制造流程自動化,工業4.0正在迅速接近。然而,這次,人工智能將自動化提升到了另一個層次,技術變得更加先進,并能夠替代更多的人工。盡管有人呼吁AI也會創造很多工作,但目前對影響的估計尚不全面。
的確,最富有的組織(可以負擔得起使用AI的組織)將利用這項高端技術,從而改善其市場地位并獲得更多利潤,這并非沒有可能。結果,成千上萬的小型企業及其員工隊伍將越來越落后。
Studicus研究人員瑪莎·凱恩(Martha Kane)表示:“要減少甚至減輕財富不平等和人工智能的問題,世界各國政府將必須共同努力制定國際法規。” “由于財富不平等的問題已經存在并且盡管我們為防止這種不平等做出了努力,但要與之抗衡將非常困難。”
2. AI偏見與歧視
即使AI能夠處理和分析大量數據并以無與倫比的有效性執行其他操作,它仍然可能會產生諸如偏見和歧視之類的簡單錯誤。我們已經看到過很多次了,而且我們逐漸意識到,在這一點上通過招聘等方式來信任AI可能不是一個好主意。
例如,亞馬遜發現了這一難題。該公司正在使用一種機器學習工具來招募候選人,并且在自稱男性候選人更適合該公司之前研究了很多數據(根據報告,該報告分析了在10年內發送給該公司的簡歷) ,其中大多數來自男性)。結果,它降低了女性候選人的等級,并以非常偏頗的方式對所有候選人進行了評級。
據該公司稱,該工具從未用于評估候選人的經歷。我們永遠不會確切知道那里發生了什么,但是有一點很清楚:AI偏見是真實的,因為有可能在數據準備過程中引入它,而在數據處理和分析過程中卻無法避免。
一個更令人沮喪的事實是,由于以下挑戰,難以解決AI偏差:
如果在分析模型構建階段引入偏差,發現其確切來源將變得異常困難,更不用說如何消除偏差了
深度學習中的絕大多數標準實踐都沒有考慮偏見和歧視問題
人工智能忽略了社會環境。例如,許多像聊天機器人這樣的AI模型的創建者自豪地宣稱,他們的產品可以在不同的上下文中用于不同的任務,但是要公平地應用社交上下文是他們還需要學習的東西。
缺乏公平的定義。為了使AI驅動的模型最大程度地減少偏差對數據分析的影響,其創建者必須以數學術語定義公平的概念。這就是問題出現的地方,因為可以用多種方式來定義它,其中許多也是互斥的。
3.敏感數據的安全性
毫無疑問,這是道德AI的最著名風險。由于AI驅動的系統和模型需要存儲大量個人信息,因此網絡犯罪分子并非不可能訪問它。因此,全世界的政府已經在為AI系統實施數據保護法律。
為了確保盡快識別和緩解任何數據泄露,我們必須提供強大而全面的保護系統。而且,這也增加了對使用多個國家公民的敏感數據的人工智能國際法規的需求。在當今的監管環境中,這樣做并非易事,但這絕對是我們必須采取的措施,以避免網絡罪犯大量丟失數據。
此外,政府可能會將AI系統用于軍事目的,這也帶來了網絡犯罪分子獲得控制此類工具的風險。如果惡意使用它們,可能會造成重大損失,因此應建立適當的保護機制,以使AI免受罪犯和恐怖分子的侵害。
4. AI的愚蠢
沒想到在清單上看到這個嗎?好吧,根據Google副總裁安德魯·摩爾(Andrew Moore)的說法,人工智能“目前非常非常愚蠢”,尤其是與人類相比。正如CNet所述,這是他不得不說的用以解釋該聲明的內容:
“這確實擅長做我們大腦無法處理的某些事情,但這不是我們可以敦促進行涉及類比或創造性思維或跳出框框之類的通用推理的事情。”
顯然,對于AI而言,執行“框外思考”和“創造性思維”之類的任務仍然幾乎是不可能的,這意味著它無法應用于許多領域。最重要的是,當AI系統學習如何檢測正確的模式并采取適當行動時,還必須經歷“學習”階段。但是,很明顯,人類無法完全提供系統在現實世界中可能必須處理的所有示例,這使它很脆弱。
例如,網絡犯罪分子可以舉一個未經培訓的示例來欺騙系統,以得出特定結論。
在這一點上,我們才剛剛開始設計可以解決諸如涉及重復性流程和其他非常簡單的事情的問題之類的事情的AI系統。在我們訓練AI系統以認識到有人在愚弄它之前,仍然存在犯錯誤的風險。
道德AI的道路漫長
你知道他們說了什么; 有些事情需要時間。考慮到我們剛剛討論的主要障礙,設計道德的AI會花費很長時間。由于如此眾多的行業將從AI,自然語言處理和機器學習中受益,因此我們絕對應該加大努力,使其符合道德和客觀要求。畢竟,這是為了我們自己的利益。
-
AI
+關注
關注
88文章
35138瀏覽量
279801 -
自動化
+關注
關注
29文章
5784瀏覽量
84853 -
人工智能
+關注
關注
1806文章
49015瀏覽量
249456
發布評論請先 登錄
深圳啟航,燃動灣區!IDC Directions 2025探秘AI重塑轉型之路

一文講透 AI 歷史上的 10 個關鍵時刻

芯原戴偉進:可穿戴設備是通往AI的入口
泛林集團連續第三年被Ethisphere評為“全球最具商業道德企業”之一

OrangePi AI Studio運行Deepseek-R1蒸餾模型,開啟你的AI之旅

時空壺亮相CES首發AI翻譯操作系統Bable OS,登場驚艷全球
AI潮流下的辦公“神器”選擇,沸蛇AI語音鼠標真正實現效率翻倍

OpenAI投資道德算法研究
AI for Science:人工智能驅動科學創新》第4章-AI與生命科學讀后感
《AI for Science:人工智能驅動科學創新》第二章AI for Science的技術支撐學習心得
AI 大模型行業應用:企業如何走出一條智能化蛻變之路?
卡特彼勒推出“通往可持續發展之路”計劃
萬物智聯時代,RISC-V與AI的融合之路該如何走?

評論