公眾陷入與大數據和人工智能的混亂,愛恨交織的關系。新聞中令人興奮的新技術和數據輕重重重的影響了雙方。隨著有關道德和軟件自主性的難題日益迫切,共識仍然難以捉摸。
麻省理工學院工程系統教授斯圖爾特·馬德尼克(Stuart Madnick)(如圖)說:“道德問題的麻煩在于,他們往往沒有一個很好的明確答案 。” 這是因為幾乎沒有玫瑰在AI中沒有刺,也沒有潛在的陷阱而沒有回報。我們都喜歡預見下一個問題的應用程序中的智能算法。他們需要大量的數據集進行訓練。普通消費者認為,這對我來說很好,只要這不是我的數據即可。
Madnick采訪過 戴夫Vellante表示 和保羅·吉林,theCUBE,SiliconANGLE Media的移動即時串流工作室共同主辦的MIT CDOIQ研討會在劍橋期間。他們討論了面臨AI的制造商和消費者(看到完整的采訪成績單硬倫理問題在這里)。
事實是,根據Madnick的說法,沒有大數據或AI不會損害數據隱私或主權。我們仍然沒有經驗來判斷可接受的成本效益比。
麥德尼克說:“幾乎我們所做的每項研究都涉及到此類[道德]問題,而且人們都在投票,幾乎總是將其分散在各個方面,因為其中任何一個都是錯誤的決定。” “那么哪個錯誤的決定最不糟糕?”
Madnick指出,除了隱私問題之外,有關自動駕駛人工智能的問題也越來越多地涉及自動駕駛汽車的方法。在麻省理工學院,麥尼克(Madnick)向學生講授技術倫理學。自動駕駛的主題提出了一些難題。
例如,效用理論指出,如果汽車必須撞到一個人或多人,則最好撞到最少的人。以自動駕駛汽車中的駕駛員面對可能發生的碰撞為例。可以將汽車編程為撞到墻上,可能會殺死駕駛員,一名帶嬰兒車過馬路的婦女或成群的三名男子。第一個選擇是殺死汽車駕駛員,第二個選擇是女人和嬰兒,最后一個是三個男人。
Madnick解釋說,全班通常都不會對這種安排感到100%滿意。顯然,在AI中仍有很多道德方面的問題需要解決。
-
人工智能
+關注
關注
1809文章
49141瀏覽量
250500 -
大數據
+關注
關注
64文章
8963瀏覽量
140538
發布評論請先 登錄
NXP技術白皮書:AIoT人工智能物聯網 將人工智能與現實世界相連

評論