發明家兼作家雷·科茲威爾(Ray Kurzweil)最近在谷歌與Gmail團隊合作,就自動回復電子郵件進行研究。他最近在美國外交關系委員會( Council on Foreign Relations)與《連線》雜志主編尼古拉斯·湯普森進行了交談。以下是經過編輯的對話記錄。
【尼古拉斯·湯普森】:我們的談話就從解釋加速回報定律開始,這是支撐你寫作和工作的基本思想之一。
【雷·科茲威爾】:在人類基因組計劃進行到一半的時候,1%的基因組在7年后才被收集起來。所以主流評論家說,“我告訴過你,這行不通。你花了7年才達到1%,那一共需要700年的時間。我當時的反應是:“哇,我們完成了1%?那我們快完成了。”因為1%只是100%的7倍。它每年都在翻倍。的確,這種情況還在繼續。7年后,這個項目完成了。自從基因組計劃結束后,這種情況一直持續下去。第一個基因組的成本是十億美元,而現在我們已經降到了1,000美元。
我要提一下加速回報定律的一個含義,因為它有很多連鎖反應。它確實是我們所看到的這場令人矚目的數字革命背后的原因,信息技術的通貨緊縮率高達50%。因此,我可以像一年前那樣,獲得同樣的計算、通信、基因測序和大腦數據,而一年前的價格只有今天的一半。這就是為什么你今天可以用兩年前價格的一半買一部iPhone或一部安卓手機,而手機性能卻比以前優秀兩倍。改進后的性價比一部分表現在價格上,另一部分表現在手機性能上。因此,當一個非洲女孩以75美元的價格購買一部智能手機時,它就相當于75美元的經濟活動,盡管這一數字在1960年前后約為一萬億美元,在1980年大約為十億美元。它有數百萬美元的免費信息應用,其中一個是百科全書,遠比我十幾歲時攢錢買的要好得多。所有這些在經濟活動中都是零,因為它們都是免費的。所以我們真的不計算這些產品的價值。
所有這些都將改變:我們將用3-D打印機打印出衣服。目前我們處于某種3-D打印的炒作階段。但在本世紀20年代初,我們將能夠打印出服裝。屆時會有很多很酷的開源設計,你可以免費下載。我們仍擁有時尚產業,就像我們仍然擁有音樂、電影和圖書行業一樣,與免費、開源的產品共存,這些產品都是一流的產品和專有產品。我們可以用垂直農業生產出非常便宜的食物:用水培來種植水果和蔬菜,在體外克隆肌肉組織。第一個以這種方式生產的漢堡包已經被購買了。它很貴,售價幾十萬美元,但是很不錯。所有這些不同的資源都將成為信息技術。最近,用亞洲的3-D打印機出來的樂高風格的小模塊,幾天后就拼建成了一棟三層樓的辦公大樓。這將是本世紀20年代建筑的本質。3-D打印機將打印出我們需要的實物。
【尼古拉斯·湯普森】:讓我們來談談智能,就像我口袋里的手機一樣。它數學比我好,下棋比我厲害。它在很多事情上比我都做的好。什么時候它能比我更擅長與人交談?什么時候會代替我來采訪你?
【雷·科茲威爾】:我們的確擁有可以進行對話的技術。我的團隊在谷歌創造了智能回復。所以我們正在寫數百萬封電子郵件。它必須理解所要回復的電子郵件的含義,盡管提出的建議很簡短。但你的問題是一個類似于圖靈測試的問題,它就相當于圖靈測試。我相信,圖靈測試是對人類智力全部范圍的有效測試。你需要完全的人類智能才能通過一個有效的圖靈測試。沒有任何單純的自然語言處理技巧可以做到這一點。如果人類法官無法分辨出其中的區別,那么我們認為人工智能是人類智慧的一部分,而這正是你所要問的。這是我的一個關鍵預測。我一直在說2029年。1989年,在《智能機器時代》(The Age of Intelligent Machines)一書中,我設定的界限是在20世紀20年代初到20世紀30年代末之間,在1999年的《精神機器時代》(The Age of Spiritual Machines)一書中,我說的是2029年。斯坦福大學的人工智能部覺得這令人生畏,因此他們召開了一次會議,當時人工智能專家的共識是這需要數百年的時間。25%的人認為這永遠不會發生。我的觀點與人工智能專家的共同觀點或中間觀點越來越接近,但這并不是因為我一直在改變我的觀點。
2006年,達特茅斯召開了一個名為“人工智能@50”的會議。當時的共識是50年,那時我說的是23年。我們剛剛在阿西洛瑪舉辦了一個人工智能倫理會議,當時的共識是在20到30年之間,而那會我說是13年。我還是比較樂觀,但并沒有那么樂觀,越來越多的人認為我太保守了。
我沒有提到加速回報定律的一個關鍵問題是:硬件不僅會呈指數級增長,軟件也同樣如此。我感覺越來越自信,我認為人工智能群體正越來越有信心,相信我們離這一里程碑不遠了。
我們將與人工智能技術結合,讓我們變得更聰明。它已經做到了。這些設備都是大腦擴展器,人們也會這么想,這是一種新事物。就在幾年前,人們還沒有把他們的智能手機看做是大腦擴展器。按照定義,它們會進入我們的身體和大腦,但我認為這是一個武斷的區分。雖然它們在我們的身體和大腦之外,但它們已經是大腦的延伸,它們會讓我們變得更聰明、更有趣。
【尼古拉斯·湯普森】:請解釋一下政策制定者的框架,他們應該如何看待這種加速技術、他們應該做以及他們不應該做的事情。
【雷·科茲威爾】:人們對人工智能非常關注,如何保證技術的安全,這是一種兩極分化的討論,就像現在很多討論一樣。實際上,我在很長一段時間里都在談論承諾和危險。技術永遠都是一把雙刃劍。火使我們暖和,為我們烹飪食物的同時,也能燒毀我們的房子。這些技術比火更加強大。我認為我們應該經歷三個階段,至少我是這么認為的。首先是為能有機會解決一直以來的難題而感到高興:比如貧窮、疾病等等。然后要警告這些技術可能具有破壞性,甚至會帶來生存風險。最后,我認為我們需要指出的是,我們必須意識到,除了我們已經取得的進步,我們在道義上必須持續推動這些技術的發展。這是一個完全不同的問題,人們認為情況正在變得更糟,但實際上情況正在變得更好,仍然有很多的人類苦難需要去解決。只有人工智能領域取得的持續發展,才能使我們繼續克服貧困、疾病和環境退化,但同時我們也將面臨危險。
這是一個很好的框架。四十年前,有遠見卓識的人看到了生物技術的前景和風險,從根本上改變了生物學,讓生物學在正確的道路上獲得了長足發展。因此,他們在阿西洛瑪的會議中心舉辦了一場“阿西洛瑪會議”,并提出了道德準則和策略,即如何保證這些技術的安全。現在已經是四十年后了。我們正受到生物技術的臨床影響。今天是涓涓細流,未來十年將是一場洪水猛獸。到目前為止,因濫用生物技術而受到傷害的人數為零。這是一個很好的學習模型。
我們剛剛舉行了第一屆關于人工智能倫理的阿西洛瑪會議。這些倫理準則中有很多,特別是在生物技術領域,已經寫入了法律。所以我認為這就是我們的目標。最極端的是,“讓我們禁止這項技術”,或者“讓我們慢下腳步”。這的確不是正確的方法。我們要以一種建設性的方式來引導。有一些策略可以做到這一點,這是另一個復雜的討論。
【尼古拉斯·湯普森】你可以想象一下,國會可能會說,在某種技術領域工作的每個人都必須公開自己的數據,或者必須愿意分享他的數據集,至少要讓競爭激烈的市場戰勝這些難以置信的強大工具。你可以想象,政府會說,“實際上,我們將會有一個由政府資助的大項目,就像OpenAI一樣,但是由政府管理。”你可以想象,有一場巨大的國家基礎設施運動來發展這項技術,所以至少負責公眾利益的核心人士可以控制其中的一部分。你有什么推薦的嗎?
【雷·科茲威爾】:我認為開源數據和算法通常是一個好主意。谷歌將所有的人工智能算法與開源的附源代碼(TensorFlow)都放在公共領域。我認為這實際上是開源和不斷加速的回報定律的結合,它將使我們更接近理想。有很多問題,比如隱私,這些都是維護的關鍵,我認為這個領域的人通常都很關心這些問題。目前還不清楚正確答案是什么。我認為我們想要繼續進步,但是當你有這么大的權力時,即使是出于善意,也會有濫用的情況。
【尼古拉斯·湯普森】:你擔心什么?你看待未來非常樂觀。但是你擔心什么呢?
【雷·科茲威爾】:我被指責為一個樂觀主義者,作為一個企業家,你必須是一個樂觀主義者,因為如果你了解你遇到的所有問題,你可能永遠都不會開始做任何項目。但正如我說過的,我一直在關注和撰寫切實存在的一些負面影響。這些技術非常強大,所以我確實很擔心,盡管我是一個樂觀主義者。我很樂觀,我們最終會度過難關。我也不會樂觀說,我們不會遇到任何困難。第二次世界大戰期間,有5000萬人死亡,而當時的技術的力量更是加劇了死亡人數。我認為讓人們意識到我們正在取得進步是很重要的。最近在26個國家進行了一項24,000人的民意調查。調查的問題是,“世界的貧困狀況是否緩解?”90%的人說,情況變得更糟了,但這是錯誤的答案。只有1%的人給了正確答案,認為世界貧困人口下降了至少50%。
【尼古拉斯·湯普森】:有關職業生涯,觀眾們應該做些什么?他們即將進入這樣一個世界,在這個世界里,職業選擇映射到一個擁有完全不同技術的世界。所以在你看來,給這個房間里的人什么建議?
【雷·科茲威爾】:這確實是一條古老的建議,那就是跟隨你的激情,因為真的沒有什么領域不會受到影響,或者這不是這個故事的一部分。我們將在云端合并模擬新大腦皮層。所以,我們還是會變得更聰明。我并不認為人工智能會取代我們。它會增強我們的力量。它已經做到了。沒有我們今天擁有的這些大腦擴展器,誰能完成它們的工作。這種情況將持續下去。人們會說,“好吧,只有富人才會有這些工具,”我說,“是的,就像智能手機一樣,現在有三十億人已經擁有智能手機了。”我之前說的是二十億人,但我剛看了新聞,大概是三十億人。幾年后就會變成六十億。這是因為驚人的價格表現爆炸。所以要找到你有激情的地方。有些人有復雜的情感,他們不容易被歸類,所以要找到一種方法,使用可用的工具,讓你覺得自己可以改變世界。我提出加速回報定律的原因是,要記錄我自己的技術項目所需時間,所以我可以在項目可行的幾年前便開始,去嘗試和預測技術的發展方向。就在幾年前,我們擁有了一些看起來像智能手機的小設備,但它們不太好用。因此,像這種科技革命和移動應用在五年前幾乎不存在。五年后,世界將會變得截然不同,所以試著讓你的項目發展速度跟上與火車站臺的火車的速度。
觀眾提問:這么多的強調都是關于人性、科學和探索的美好一面,我也很好奇朝我們的機器人合作伙伴邁進的下一步。那黑暗的一面呢?那么戰爭、戰爭機器和暴力呢?
【雷·科茲威爾】:我們正在學習如何利用并操控這些平臺來擴大人類的各種傾向,而其中很多都是我們正在學習的最新信息。所以人工智能從例子中學習。在這個領域有一句格言,生命始于十億個例子,最好的例子就是向人們學習,所以人工智能經常向人類學習。情況并不總是這樣。阿爾法狗(AlphaGo Zero)剛剛自己學會如何自我對戰,但這并不總是可行的,尤其是當你在嘗試處理更復雜的現實世界問題時。這一領域做出了巨大努力,所有大公司和開源研究領域也在努力研究中,其目的就是為了消除人工智能的偏見,以及克服性別偏見和種族偏見,因為如果人工智能向有偏見的人類學習,它就會從人們那里獲得偏見。作為人類,我們會從我們所見過的所有事物中獲取偏見,其中很多都是潛意識的。作為受過教育的人,我們會認識到偏見并試圖克服它,我們的頭腦中會產生沖突。有一整個領域的研究都是為了消除人工智能的偏見,并克服它們從人類身上獲取的偏見。所以這是一種能夠克服機器智能的問題的研究。從這些方面來看,機器智能實際上比它學習的人類偏見更少。總的來說,盡管社交媒體上各種各樣的承諾和風險交織在一起,但總體來說,這是一件非常有益的事情。我穿過機場,每個兩歲以上的孩子都拿著自己的設備。社交媒體已經成為了一個世界性的社區,我認為現在的一代比其他任何一代人都更能感覺到他們是世界公民,因為他們與世界上所有的文化都有聯系。
【尼古拉斯·湯普森】:去年,美國與世界其他地區的關系并沒有變得更緊密,很多人會說,我們的民主沒有變得更好。這是持續進步與人類攜手共進道路上的曲折,還是很多人誤解了它?
【雷·科茲威爾】:美國和世界其他地方在政治上的兩極分化是不幸的。我不認為這是我們今天談論的話題。我的意思是,我們在世界上經歷過重大的波折。第二次世界大戰是一個相當大的波折,實際上并沒有影響到這些趨勢。在某些政府官員或政府中,可能有些事情是我們不喜歡的。但這里有一點需要討論。我們并不是在無法表達自己的觀點的極權主義的時代。如果我們朝那個方向發展,我會更擔心,但我不認為會發生這種情況。所以,不要貶低政府和當權者的重要性,但這是在一個不同的層面上。我們談論的這些問題并沒有受到這些事情的影響。我擔心的是存在的風險,因為技術是一把雙刃劍。
觀眾提問:我的問題與不平等有關。在人類歷史的大部分時期,經濟不平等程度相當高,這其中有很多階段。我想知道,你是否認為20世紀是一種反常現象,以及科技的擴散將如何影響這種不平等。
【雷·科茲威爾】:經濟平等問題正在朝好的方向發展。根據世界銀行的數據,在過去的20年里,亞洲的貧困人口減少了90%以上,從原始的農業經濟發展到繁榮的信息經濟。非洲和南美的經濟增長率遠高于發達國家。你看到的任何地方,都存在著不平等現象,但事情正在朝著正確的方向快速發展。在過去的20年里,全世界的貧困人口減少了50%。還有很多其他的衡量標準。所以我們正朝著正確的方向前進。在任何一個時間點上,都存在嚴重的不平等,都有人正經歷苦難,但這些現象正朝著好的方向發展。
觀眾提問:我從你的評論中得知你正在預測人工智能離下一階段還有12年,你已經提到過幾次,盡管你很樂觀,但你擔心的是存在風險,所以我想知道你是否可以詳細說明一下你的意思,你認為技術專家應該做什么來降低這些風險?
【雷·科茲威爾】:我的意思是,存在的風險是威脅我們文明生存的風險。因此,人類面臨的第一個生存風險是核擴散。我們已經有能力摧毀所有人類的生命。有了這些新技術,我們不難想到,它們可能具有極大的破壞性,并摧毀全人類。例如,生物技術。我們有能力從疾病中重新規劃生物學,比如免疫療法,這是治療癌癥的一個非常令人興奮的突破,我認為這非常具有革命性,不過它只是剛剛開始。它正在重新編程免疫系統去治療癌癥,而通常情況下不可能做到。但是,生物恐怖分子可以對一種病毒進行重新編程,使其更加致命,更具傳染性,更加隱秘,從而制造出一種超級武器。這就是40年前第一次阿西洛瑪會議所引發的難題。這些反復出現的會議讓這些倫理準則、安全協議和策略變得更加復雜,到目前為止,它已經起作用了。但我們一直在讓這項技術變得更加復雜,所以我們必須一次又一次地重新制定這些準則。我們剛剛舉行了第一次關于人工智能倫理的會議。我們提出了一套道德規范,并且都已署名通過。其中很多都是模糊的。我認為這是一個非常重要的問題。我們發現我們必須在軟件中建立倫理價值觀。一個典型的例子就是無人駕駛汽車。自動駕駛汽車的全部動機是,在200萬名人類司機中,避免99%的司機的死亡,但它將陷入一種境地,必須做出道德決策:它應該朝著嬰兒車或向老年夫婦行駛,還是向墻壁行駛,而這可能導致乘客死亡。無人駕駛車是否有道德準則,不導致車內乘客的死亡?在這種情況下,無人駕駛車不能給軟件設計師發送電子郵件,然后說,“天哪,我該怎么辦?”道德準則必須內置在軟件中。所以這些都是實際問題,在這個問題上,人工智能有一個完整的領域。
但我們該如何應對更為實際存在的風險:短期內就能實現的人工智能武器化。世界各地的國防部都在使用人工智能。當時有一份文件要求人們同意禁止使用自動武器,這聽起來是個好主意,而使用的例子是“我們禁止化學武器,所以為什么不使用自主的人工智能武器呢?”這有點復雜,因為我們可以不用炭疽,也不用天花。禁止化學武器是可以的。但自動武器是一種兩用技術。能將你的冷凍華夫餅或藥品送到非洲一家醫院的亞馬遜無人機,可能用于運輸一種武器。這是同樣的技術,一切已蓄勢待發。也就是說,這是一個更復雜的問題,如何處理。但我們的目標是收獲承諾并控制風險。沒有簡單的算法,我們可以把這個子程序放入我們的人工智能中,“好吧,把這個子程序放進去。”它會讓你的人工智能保持良性。”智力天生就是無法控制的。我的策略并不愚蠢,它是在我們自己的人類社會中實踐我們希望在世界上看到的道德、道德和價值觀。因為未來的社會并不是某些來自火星的智能機器的入侵。它誕生于我們今天的文明。這將會增強我們的自我。因此,如果我們正在實踐我們今天所珍視的價值觀,那就是在未來擁有一個包含這些價值觀的世界的最佳策略。
評論