新年剛過,AI大牛們又在展望未來了。近日,Yann Lecun、吳恩達等人在接受采訪時談了自己對2019年AI發(fā)展趨勢的總體展望。吳恩達認為,2019年AI產(chǎn)業(yè)將會創(chuàng)造出13萬億美元的全球GDP,Yann Lecun則表示,我們應(yīng)對AI應(yīng)用中出現(xiàn)的道德問題做好準(zhǔn)備。
人工智能來了。人們對AI的持有截然不同的兩種態(tài)度,擁護AI的人認為它就是拯救世界的超級英雄;而抗拒AI的人認為它不是英雄而是終結(jié)者。
VentureBeat聯(lián)系到了吳恩達、ML和Fast Forward實驗室創(chuàng)始人Hilary Mason,F(xiàn)acebook AI研究創(chuàng)始人Yann LeCun和埃森哲負責(zé)人工智能全球領(lǐng)導(dǎo)者Rumman Chowdhury博士,這4位人工智能領(lǐng)域的大牛,咨詢了他們的看法。希望借由這些專業(yè)人士的專業(yè)眼光,為大眾勾畫出一個更加清晰的“人工智能”畫像。
新智元對此文進行了編譯,以下是文章內(nèi)容:
Rumman Chowdhury:希望政府加強管控
Rumman Chowdhury博士是埃森哲應(yīng)用智能部門的常務(wù)董事,負責(zé)該部門的全球人工智能計劃,于2017年入選“BBC百名杰出女性”。
她認為,雖然目前人工智能漲勢喜人,然而大眾對AI的了解還遠遠不夠。
新的一年,她希望看到更多的人,能夠有更多的教育資源,幫助大家更好的理解AI,了解它的優(yōu)勢和存在的問題,更理智的分析問題做出決策。
她希望政府加強對技術(shù)的管控,但要保持好平衡。AI毫無疑問是一把利器,怎么用好這把利器是每個政府都需要深刻考慮的:
如何保證在加強管制同時又不扼殺創(chuàng)新性
如何保證監(jiān)管措施不會導(dǎo)致大公司獲益小公司遭殃
如何在多種可能性中引導(dǎo)其得出最理想的結(jié)果
她同時希望看到AI能夠更好促進地緣政治的發(fā)展。她說AI已經(jīng)不僅僅關(guān)乎于科技,而且關(guān)乎于社會和經(jīng)濟,關(guān)乎于價值觀。
不要老是跟風(fēng)去做,不要把眼光僅僅關(guān)注在算力、算法等,而是要奔著利用人工智能去改造世界,改變世界格局。
她還就人工智能對人類倫理方面的影響,提出了一些問題:
如何利用AI和物聯(lián)網(wǎng)設(shè)備提升安全性的同時,不出現(xiàn)種族歧視?
如何進行社會分配,從而不會出現(xiàn)更嚴重的兩極分化?
如何把握兒童教育的“度”,使得我們的后代既能很好的理解AI,又不會被其操控或同化?
如果利用AI自動化教育的同事,不至于使我們的后代喪失創(chuàng)新性?
最后,她認為2019年人們將會消費更多的AI產(chǎn)品,因為許多人已經(jīng)習(xí)慣于使用Google Home和Amazon Echo及一系列智能設(shè)備。
“我覺得,我們都在等一個機器人管家的出現(xiàn)。”
吳恩達:AI將會創(chuàng)造13萬億GDP
吳恩達援引麥肯錫報告指出,2030年,AI將會為全球人類貢獻13萬億GDP。
他說,AI已經(jīng)不僅僅局限于科技公司。未來,像制造工廠、農(nóng)業(yè)器械廠商、醫(yī)療行業(yè),也會開發(fā)多很多AI解決方案以助力業(yè)務(wù)發(fā)展。
他還舉了兩個例子,試圖說明目前人工智能技術(shù)遇到的問題,以及重大進展。
第一個例子是人工智能可以用較少的數(shù)據(jù)得出準(zhǔn)確的結(jié)論,一些人在該領(lǐng)域稱為“少量學(xué)習(xí)”。原來人工智能是大公司的專屬,動輒10萬小時、上億的數(shù)據(jù)訓(xùn)練。如今,可以用1000張圖片就能得出結(jié)果。
另一個例子是被稱為“廣義可見性”的計算機視覺技術(shù)的進步。該領(lǐng)域的許多先進公司和研究人員已經(jīng)創(chuàng)建了比人類放射科醫(yī)生更優(yōu)秀的系統(tǒng)。
但是,如果你采用訓(xùn)練有素的模型并將其應(yīng)用于從低端X光機拍攝的X射線或從不同的醫(yī)院拍攝,其中圖像有點模糊,也許X射線技術(shù)人員讓患者略微向右轉(zhuǎn),所以角度有點偏離等等。
事實證明,在這種情況下,人類放射科醫(yī)師今天的學(xué)習(xí)算法要好得多。
Yann LeCun:未來的AI可能具備常識,洞察因果
Yann LeCun是紐約大學(xué)的教授,F(xiàn)acebook首席人工智能科學(xué)家,F(xiàn)acebook AI研究院(FAIR)的創(chuàng)始人,F(xiàn)acebook該公司創(chuàng)建了PyTorch 1.0和Caffe2,以及許多AI系統(tǒng),比如Facebook每天使用數(shù)十億次的AI文本翻譯工具和高級強化學(xué)習(xí)系統(tǒng)等。
LeCun認為,F(xiàn)AIR的研究和工具采取的開源政策有助于推動其他科技公司做同樣的事情,他認為這種模式可以將AI領(lǐng)域作為一個整體向前推進。 LeCun是在上個月在NeurIPS會議和FAIR成立五周年之際接受采訪時候做出上述回應(yīng)的。FAIR是一個組織,主要關(guān)注利用機器學(xué)習(xí)解決技術(shù)、數(shù)學(xué)問題。
“當(dāng)更多人就研究進行溝通時,整個領(lǐng)域的進展更快,這實際上是一個非常大的影響,”他說。 “今天的AI領(lǐng)域中能夠取得如此快速的進步,很大程度上是因為有更多的人比以往更快、更有效率地進行更開放的研究。”
在研究倫理方面,LeCun也對越來愈多的研究人員考慮研究成果在倫理道德上影響,以及決策偏見帶來的潛在危險方面取得的進展感到高興。
“可以說,一些人們應(yīng)該注意到的問題現(xiàn)在已經(jīng)被重視起來了。而兩三年前情況并非如此。”他說。
LeCun表示,他認為AI領(lǐng)域的道德和偏見問題還沒到需要立即采取行動的程度,但他認為人們應(yīng)該為此做好準(zhǔn)備。
他說:“我認為目前這不是關(guān)乎生死存亡的問題,但總有一天會出現(xiàn)這樣的問題的,我們需要了解這些問題,并在這些問題產(chǎn)生之前予以預(yù)防。”
與吳恩達一樣,LeCun希望能夠出現(xiàn)更加靈活、強大的AI系統(tǒng),不需要原始輸入數(shù)據(jù)或準(zhǔn)確輸出的精確條件。LeCun表示,研究人員已經(jīng)可以通過深度學(xué)習(xí)很好地管理感知,但目前還缺乏對完整AI系統(tǒng)整體架構(gòu)的理解。
他說,通過觀察世界來實現(xiàn)教學(xué)的機器,需要靠自我監(jiān)督學(xué)習(xí)或基于模型的強化學(xué)習(xí)。
“不同的人給它起了不同的名字,但基本上講,人類嬰兒和動物都是通過觀察并找出大量相關(guān)背景信息來了解世界的,我們目前還不知道如何用機器做到這一點,這是一個巨大的挑戰(zhàn)。 “而回報就是在人工智能和機器方面取得實際進展,讓AI具備一些常識,聊起天來不會讓人覺得尷尬,聊天話題可以更廣泛等等。”
對于將在Facebook內(nèi)部提供幫助的應(yīng)用程序,LeCun表示在自我監(jiān)督學(xué)習(xí)方面取得的重大進展將非常重要,同時AI返回準(zhǔn)確的結(jié)果所需的數(shù)據(jù)量更少。
“在解決這個問題的過程中,我們希望找到減少任何特定任務(wù)所需的數(shù)據(jù)量的方法,如機器翻譯或圖像識別等,我們已經(jīng)在這方面取得了進展;我們通過弱監(jiān)督或自監(jiān)督學(xué)習(xí)翻譯和圖像識別,對Facebook使用的服務(wù)產(chǎn)生了影響。因此,這不僅僅會是一項長期的目標(biāo),也會產(chǎn)生非常短期的后果。“他說。
在未來,LeCun希望看到在事件之間建立因果關(guān)系的AI取得進展。這不僅僅需要AI通過觀察來學(xué)習(xí),還需要AI具備實際的理解能力,比如,如果人們使用遮陽傘,就判斷可能會下雨。
“這點非常重要,因為如果你想讓一臺機器通過觀察學(xué)習(xí)世界的模型,它必須能夠知道自己可以通過造成哪些影響來改變世界的狀態(tài),有哪些事是不能做的。”他說。
“如果你在一個房間里,桌子就在你面前,桌上有一個像水瓶一樣的東西,你知道你可以去推水瓶,水瓶會移動,但你不能移動桌子,因為桌子很大、很重,而這些判斷都與因果關(guān)系有關(guān)。“
希拉里·梅森:AI技術(shù)的道德問題將成為普遍關(guān)注焦點
在Cloudera于2017年收購Fast ForwardLabs之后,Hilary Mason成為了Cloudera的機器學(xué)習(xí)的總經(jīng)理。Fast Forward雖然被收購,但仍然保持運營,主要出具應(yīng)用機器學(xué)習(xí)的報告,為客戶提供關(guān)于未來六個月到兩年的展望和建議。
AI在2018年的一項進步讓梅森感到驚訝,這與多任務(wù)學(xué)習(xí)有關(guān),它可以訓(xùn)練單個神經(jīng)網(wǎng)絡(luò)在推理時使用多種標(biāo)簽,比如識別圖像中的多個目標(biāo)。
Fast Forward Labs也一直在為客戶提供關(guān)于AI系統(tǒng)的道德影響的建議。梅森認為,有必要為AI建立建立某種道德框架。
“自從創(chuàng)建Fast Forward以來,我們就一直在做這件事情,我們一直在撰寫關(guān)于AI道德規(guī)范的報告,但是直到2018年,人們才真正開始接受并關(guān)注這個問題,我想2019年對這個問題的關(guān)注度會更高。”梅森說。
“我希望這個問題成為數(shù)據(jù)科學(xué)和人工智能的實踐發(fā)展中默認的關(guān)注點,技術(shù)人員和商業(yè)領(lǐng)袖打造AI產(chǎn)品時,都會考慮道德和偏見問題,將其融入產(chǎn)品的開發(fā)過程,而今天,并不是每個人都會關(guān)注這些東西。“
隨著更多的AI系統(tǒng)成為未來一年業(yè)務(wù)運營的一部分,Mason預(yù)計產(chǎn)品經(jīng)理和產(chǎn)品負責(zé)人將開始在AI方面做出更多貢獻。
梅森還認為,越來越多的企業(yè)對多個AI系統(tǒng)進行結(jié)構(gòu)化的管理。
梅森表示,如果用開發(fā)人員面臨的挑戰(zhàn)類比,管理單個系統(tǒng)可以使用手動部署的自定義腳本完成,而cron作業(yè)可以一次管理幾十個。但是,當(dāng)管理數(shù)十個或數(shù)百個系統(tǒng)時,在具有安全性、風(fēng)險管控要求的企業(yè)中,就需要專業(yè)穩(wěn)定的工具了。
她說,越來越多的企業(yè)正在從追求對每個環(huán)節(jié)的完全掌控或精通,轉(zhuǎn)變?yōu)橄到y(tǒng)化地追求機器學(xué)習(xí)和人工智能帶來的機會。
由于Cloudera最近推出了自己的基于容器的機器學(xué)習(xí)平臺,因此強調(diào)部署AI的容器對Mason來說很有意義。她相信這種趨勢將在未來幾年還將繼續(xù),因此公司可以選擇在云中部署的內(nèi)部部署AI。
最后,梅森認為,AI的業(yè)務(wù)將繼續(xù)發(fā)展,AI將成為整個行業(yè)的共同追求,而不僅僅是個別公司的追求。
“我認為未來的AI專業(yè)實踐將會不斷發(fā)展,”她說。 “現(xiàn)在,如果你是一家公司的數(shù)據(jù)科學(xué)家或機器學(xué)習(xí)工程師,而你去另一家公司任職時,你的工作將會完全不同:你將面對不同的工具、不同的期望,不同的報告結(jié)構(gòu)。未來,這些環(huán)節(jié)都會具備更高的一致性。”她說。
-
AI
+關(guān)注
關(guān)注
88文章
34488瀏覽量
275921 -
人工智能
+關(guān)注
關(guān)注
1804文章
48807瀏覽量
247165
原文標(biāo)題:LeCun、吳恩達等AI大咖解析2019人工智能
文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
物聯(lián)網(wǎng)未來發(fā)展趨勢如何?
一場圓桌論壇揭曉AI落地智慧園區(qū)的發(fā)展趨勢
數(shù)據(jù)采集在AI行業(yè)的應(yīng)用、優(yōu)勢及未來發(fā)展趨勢

FPGA+AI王炸組合如何重塑未來世界:看看DeepSeek東方神秘力量如何預(yù)測......
PID發(fā)展趨勢分析
高通展望2025年邊緣側(cè)AI的發(fā)展趨勢
富士通預(yù)測2025年AI領(lǐng)域的發(fā)展趨勢
Imagination 系列研討會 |中國生成式 AI 的發(fā)展

未來物流發(fā)展趨勢與TMS的關(guān)系
邊緣計算的未來發(fā)展趨勢
未來AI大模型的發(fā)展趨勢
AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第4章-AI與生命科學(xué)讀后感
《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第二章AI for Science的技術(shù)支撐學(xué)習(xí)心得
AI服務(wù)器的用途、特點、應(yīng)用場景及發(fā)展趨勢
EMI濾波器的發(fā)展趨勢展望

評論