深度學(xué)習(xí)界“最敢說(shuō)的人”Yann LeCun再次放話,不過(guò)今天是提問(wèn):要是他早先能夠預(yù)料到如今CNN被濫用,比如制作DeepFake換臉假視頻,他當(dāng)初還該不該開(kāi)源CNN?講真,AI研究發(fā)表和模型開(kāi)源,真的該制定一個(gè)規(guī)范了。
Yann LeCun今天在Twitter上提問(wèn):
講真,要是當(dāng)初知道卷積神經(jīng)網(wǎng)絡(luò)(CNN)會(huì)催生DeepFake,我們還要不要發(fā)表CNN?
LeCun說(shuō):“問(wèn)個(gè)嚴(yán)肅的問(wèn)題:卷積神經(jīng)網(wǎng)絡(luò)(CNN)被用于(或開(kāi)發(fā))各種各樣的應(yīng)用。很多這樣的應(yīng)用對(duì)世界起到了積極影響,例如,醫(yī)療影像、汽車(chē)安全、內(nèi)容過(guò)濾、環(huán)境監(jiān)控等等。
“但有的應(yīng)用則可能起到負(fù)面的效果,或者說(shuō)侵犯隱私,例如,公眾場(chǎng)所的人臉識(shí)別系統(tǒng)、進(jìn)攻性武器,以及有偏見(jiàn)的“過(guò)濾”系統(tǒng)……
“那么,假設(shè)在上世紀(jì)80年代那時(shí)我們能夠預(yù)見(jiàn)CNN的這些負(fù)面影響,我們?cè)摬辉摪袰NN模型保密不公開(kāi)呢?
“幾點(diǎn)想法:
最終,CNN(或者類似的東西)還是會(huì)被其他人發(fā)明出來(lái)(實(shí)際上,有些人可以說(shuō)差不多已經(jīng)做到了)。其實(shí),福島邦彥就跟我說(shuō),他80年代末的時(shí)候正在研究一種用BP訓(xùn)練的新認(rèn)知機(jī)(Neocogitron),但看到我們1989年發(fā)表的神經(jīng)計(jì)算論文“大感震驚”(shocked),然后停止了他的項(xiàng)目。
開(kāi)源CNN或深度學(xué)習(xí)軟件平臺(tái)直到2002年才出現(xiàn)(CNN是20世紀(jì)90年代早期商業(yè)軟件包SN和2002年開(kāi)源的Lush軟件包的一項(xiàng)功能。20世紀(jì)90年代中后期才開(kāi)始有OSS分發(fā))。因此,在某種程度上,CNN直到2002年才完全發(fā)表(released)。但那時(shí)基本沒(méi)有什么人關(guān)注CNN,或者想到用Lush來(lái)訓(xùn)練CNN。”
LeCun的這番話,可以說(shuō)是為他此前的“表態(tài)”做出了完美的解釋。
是的,這里說(shuō)的還是關(guān)于OpenAI模型開(kāi)源的那件事。
LeCun:擔(dān)心模型太強(qiáng)大而不開(kāi)源,干脆別研究AI
2月中旬,OpenAI宣布他們開(kāi)發(fā)了一個(gè)通用文本生成模型GPT-2,擁有15億參數(shù),使用了800萬(wàn)網(wǎng)頁(yè)進(jìn)行訓(xùn)練,能夠同時(shí)完成文本生成、回答問(wèn)題、總結(jié)摘要、機(jī)器翻譯等多項(xiàng)任務(wù),有的時(shí)候效果甚至比專門(mén)的文本生成/問(wèn)答/摘要總結(jié)等模型還要好。
接著,OpenAI用一個(gè)又一個(gè)的示例,充分展示了GPT-2模型有多強(qiáng)大,等到眾人迫不及待地要了解設(shè)計(jì)細(xì)節(jié)時(shí),突然話鋒一轉(zhuǎn),說(shuō)他們擔(dān)心模型“太過(guò)強(qiáng)大”,開(kāi)源后可能遭人濫用,這次決定不公布具體參數(shù)和訓(xùn)練數(shù)據(jù)集,只是放出一個(gè)小很多的樣本模型供人參考。
誰(shuí)料,OpenAI這一舉動(dòng)引爆了整個(gè)AI圈,相比GPT-2模型本身,對(duì)于模型是否該開(kāi)源的爭(zhēng)論在短時(shí)間內(nèi)得到了更多的關(guān)注,NLP領(lǐng)域以外的研究人員和開(kāi)發(fā)者也湊過(guò)來(lái),而且“群眾的意見(jiàn)”幾乎是一邊倒的反對(duì)OpenAI,簡(jiǎn)而言之:
擔(dān)心AI過(guò)于強(qiáng)大而不開(kāi)源太矯情,這樣還不如一開(kāi)始就別研究AI。
當(dāng)時(shí),LeCun不僅轉(zhuǎn)發(fā)了一條諷刺O(píng)penAI的推文,還“火上澆油”地寫(xiě)了個(gè)段子,大意是:可不能開(kāi)源在MNIST數(shù)據(jù)集上精度99.99%的模型,這可能被人用來(lái)篡改郵編,發(fā)動(dòng)垃圾郵件恐怖襲擊,那還得了。具體見(jiàn)下:
最終,LeCun對(duì)OpenAI不予開(kāi)源的嘲諷發(fā)展到了極致:
“每個(gè)新生出來(lái)的人都可能造謠、傳播流言并影響其他人,那我們是不是該別生孩子了?”
這番言論實(shí)在稱不上嚴(yán)謹(jǐn),甚至不能算“嚴(yán)肅”,但作為Facebook首席科學(xué)家、卷積神經(jīng)網(wǎng)絡(luò)發(fā)明人和深度學(xué)習(xí)三巨頭之一,LeCun在如今的AI圈子里擁有巨大的影響力,他的這一表態(tài)迅速成為重磅砝碼,壓在了天平“反對(duì)不開(kāi)源”的這邊,不僅堅(jiān)定了此前站出來(lái)表示反對(duì)的人的信念,還影響了不少后來(lái)人的觀點(diǎn)。
關(guān)于模型開(kāi)源,我們真正關(guān)注的應(yīng)該是什么?
當(dāng)然,現(xiàn)在業(yè)界的重點(diǎn)已經(jīng)從最初的口水戰(zhàn)聚焦到AI研究發(fā)表和開(kāi)源政策的討論上來(lái)。
LeCun或許也是希望用今天這個(gè)“serious question”來(lái)闡述自己當(dāng)初過(guò)于簡(jiǎn)單而容易被人誤會(huì)的表態(tài)。
大多數(shù)研究人員都同意,OpenAI決定不開(kāi)源的出發(fā)點(diǎn)是好的,但給出的理由卻不盡人意:
首先,GPT-2模型是否真有那么強(qiáng)大?不公布細(xì)節(jié)無(wú)法證明這一點(diǎn)。這也是一開(kāi)始口水戰(zhàn)的一大焦點(diǎn),如果不給出細(xì)節(jié),誰(shuí)都可以站出來(lái)說(shuō)我實(shí)現(xiàn)了強(qiáng)AI,但由于“擔(dān)心太過(guò)強(qiáng)大”,所以我不能發(fā)表。
插一句,從OpenAI公布的統(tǒng)計(jì)數(shù)據(jù)中可以看出,GPT-2不僅僅是“記住了”數(shù)據(jù),而是確實(shí)具有更強(qiáng)的泛化性能。
其次,公開(kāi)了模型設(shè)計(jì)和訓(xùn)練數(shù)據(jù)集,是否就會(huì)被人拿去在網(wǎng)上“假言惑眾”?先拋開(kāi)結(jié)果復(fù)現(xiàn)程度,但看訓(xùn)練成本——OpenAI并沒(méi)有介紹訓(xùn)練GPT-2模型的時(shí)間,但根據(jù)知情的研究人員透露,OpenAI取得了特許,使用谷歌TPU來(lái)訓(xùn)練模型,1小時(shí)花費(fèi)2048美元。這個(gè)費(fèi)用不是一般人能承擔(dān)得起的,而能承擔(dān)起這種費(fèi)用的,如果真要“作惡”,有大概率不需要借助開(kāi)源模型。
最后,關(guān)于企業(yè)研究機(jī)構(gòu)如何宣傳AI研究,如何面對(duì)公眾、媒體和研究人員等不同群體,OpenAI的做法也有一些爭(zhēng)議。DeepMind在最初介紹WaveNet,一個(gè)能合成與真人語(yǔ)音幾乎無(wú)二的強(qiáng)大語(yǔ)音生成模型的時(shí)候?qū)τ跐撛谖kU(xiǎn)只字不提,而OpenAI不但主動(dòng)提出并且還想要牽頭制定AI研究發(fā)表的相關(guān)政策。這里說(shuō)不出誰(shuí)對(duì)誰(shuí)錯(cuò),但OpenAI只給出一個(gè)郵箱地址,歡迎“感興趣的研究人員”聯(lián)系他們的做法是遠(yuǎn)遠(yuǎn)不夠的。
現(xiàn)在能夠肯定的是,關(guān)于AI研究發(fā)表和模型開(kāi)源,相關(guān)的政策真的需要制定了。OpenAI在擔(dān)心模型被濫用時(shí)舉了DeepFake為例,DeepFake是基于CNN構(gòu)建的圖像生成模型,由于強(qiáng)大的圖像生成能力,能夠生成以假亂真的人臉,甚至騙過(guò)先進(jìn)的人臉識(shí)別模型。
那么回到LeCun一開(kāi)始問(wèn)的那個(gè)嚴(yán)肅的問(wèn)題:
要是當(dāng)初知道卷積神經(jīng)網(wǎng)絡(luò)(CNN)會(huì)催生DeepFake,我們還要不要發(fā)表CNN呢?
-
AI
+關(guān)注
關(guān)注
88文章
35082瀏覽量
279428 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5561瀏覽量
122782 -
cnn
+關(guān)注
關(guān)注
3文章
354瀏覽量
22740
原文標(biāo)題:LeCun:30年前知道DeepFake,我還該不該開(kāi)源CNN?
文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
首創(chuàng)開(kāi)源架構(gòu),天璣AI開(kāi)發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手
AI開(kāi)源如何影響IBM的未來(lái)
AI開(kāi)源模型庫(kù)有什么用
大模型訓(xùn)練:開(kāi)源數(shù)據(jù)與算法的機(jī)遇與挑戰(zhàn)分析

Meta重磅發(fā)布Llama 3.3 70B:開(kāi)源AI模型的新里程碑

谷歌發(fā)布“深度研究”AI工具,利用Gemini模型進(jìn)行網(wǎng)絡(luò)信息檢索
開(kāi)源AI模型庫(kù)是干嘛的
阿里云開(kāi)源推理大模型QwQ
開(kāi)源與閉源之爭(zhēng):最新的開(kāi)源模型到底還落后多少?

評(píng)論