AI 迎來另一寒冬?這是 2018 年下半年至今我們一直能聽到的一種聲音。這類唱衰的文章一經發布,總是能博人眼球。這篇發表在 Medium 上的文章探討了 AI 的歷史和現在,泛談了深度學習的局限性,思考 AI 寒冬的到來。你認同這篇文章的觀點嗎?
許多人認為,算法可以利用認知意識來超越人類。機器可以在沒有人類干預的情況下識別和學習任務。他們完全可以「思考」。許多人甚至提出了我們是否可以打造機器人配偶的問題。
但以上的討論并非今天才出現的話題。如果我告訴你早在上世紀 60 年代,AI 領域先驅 Jerome Wiesner、Oliver Selfridge 和 Claude Shannon 就堅信這些將發生在不遠的將來,你會作何感想?
讓我們回到 1973 年,彼時 AI 炒作遇冷。英國議會指定 James Lighthill 爵士起草英國人工智能研究現狀報告,該報告批評人工智能研究沒有達到其所宣稱的效果。有趣的是,Lighthill 還指出了專門的程序(或編程人員)比 AI 表現要好得多,AI 在現實世界環境中沒有前景。因此,英國政府取消了所有 AI 研究經費。
在大洋彼岸,美國國防部也曾斥巨資開展 AI 研究,但在遇到同樣的挫折后也取消了幾乎所有經費,這些挫折包括:對 AI 能力的夸大、高成本無回報,以及在現實世界中看不到期望的價值。
到了 20 世紀 80 年代,日本在人工智能領域大膽嘗試,提出了「第五代計算機」項目。然而,在耗費了 8.5 億美元之后,這一項目不幸流產。
首個 AI 寒冬
20 世紀 80 年代末,AI 進入寒冬,這是計算機科學的一段黑暗時期,組織和政府所支持的人工智能研究都交付失敗,造成了沉沒成本。這樣的失敗使 AI 研究消沉數十年。
到了 20 世紀 90 年代,「AI」成了一個罵人的詞,這種狀況一直持續到 21 世紀初。那時人們普遍相信「AI 沒什么用」。編寫智能程序的軟件公司使用的詞是「搜索算法」、「業務規則引擎」、「約束求解器」、「運籌學」。值得一提的是,這些珍貴的工具的確來自 AI 研究,但由于沒有完成更偉大的使命,它們不得不換了個名字。
2010 年左右,情況發生了轉變。人們對 AI 的熱情重新燃燒起來,圖像分類競賽吸引了媒體的眼球。硅谷坐擁海量數據,首次達到可以讓神經網絡發揮作用的程度。
到了 2015 年,AI 研究已經占據了財富 500 強公司的大筆預算。通常,這些公司是由于 FOMO(害怕錯過)而不是實際用例驅動的,他們害怕被自己的競爭對手甩在后面。畢竟,擁有一個能夠識別圖像中物體的神經網絡是一件酷炫的事情!外行認為天網(SkyNet)具備的強大能力一定會出現。
但這真的是在向真正的人工智能邁進嗎?或許只是重演歷史,只不過這一次有很多成功用例。
AI 到底是什么?
我曾經很不喜歡「人工智能」這個詞。它的概念模糊又深遠,且更多的是被營銷人員而不是科學家來定義。當然,市場營銷和流行語可以說是刺激積極變化和擁抱新思想的必要條件。然而,流行語又不可避免地會導致混亂、模糊。我的新智能手機有「AI 鈴聲」功能,在嘈雜的環境下會自動加大鈴聲。我想大概那些可以用一系列「if」條件句或簡單線性函數編程的東西都能叫「AI」吧。
如此,人們對「AI」的定義存在廣泛爭議也就不足為奇了。我喜歡 Geoffrey De Smet 的定義,他認為「AI 解決方案」針對的是那些答案不明和/或存在不可避免誤差的問題。這樣就包括了從機器學習到概率和研究算法的很多工具。
也可以說,AI 的定義在不斷發展,并只包括突破性進展,而昨日的成功(如光學字符識別和語言翻譯)則不再被視為「AI」。因此「AI」是一個相對的術語,并不絕對。
近年來,「AI」常與「神經網絡」綁在一起,這也將是本文的重點。當然,還有其它的「AI」解決方案,如機器學習模型(樸素貝葉斯、支持向量機、XGBoost)和研究算法。但神經網絡無疑是當前最熱門、最受追捧的技術。
AI 的「文藝復興」?
2010 后,AI 宣傳再次變得火熱的原因僅僅是因為掌握了一項新任務:分類。具體來說,利用神經網絡,科學家開發了一些有效的方法來對大多數類型的數據(包括圖像和自然語言)進行分類。甚至自動駕駛汽車也屬于分類任務,汽車周圍道路的每張圖像被轉化為一組離散動作(汽車、剎車、左轉、右轉等)。
在我看來,自然語言處理比單純的分類要更令人印象深刻。人們很容易認為這些算法是有感知的,但如果你仔細研究它們,你會發現它們依賴的是語言模式而不是有意識構建的思想。這會帶來一些有趣的結果,比如這些機器人會為你操控騙子:
自然語言處理最令人印象深刻的壯舉可能是 Google Duplex,它能讓你的手機代你打電話,特別是預約。但是,你要知道 Google 可能只是為這個特定任務訓練、構建甚至硬編碼了該「AI」。當然,Google Duplex 的聲音聽起來很自然,有停頓,如「啊…嗯」,不過,這些仍是通過對語音模式進行操作來完成的,而不是通過實際推理和思考。
所有這些都令人印象深刻,并且肯定有一些有用的應用。但我們的確需要降低期望并停止宣傳「深度學習」的能力了。否則,我們可能會發現自己陷入另一個 AI 寒冬。
歷史總是相似的
康奈爾大學的 Gary Marcus 寫了一篇關于深度學習天花板的文章,并提出了幾個發人深省的觀點(這篇文章傳播開來后,他又寫了一份有趣的續篇)。Rodney Brooks 則整理時間表,并通過引用的研究來追蹤其人工智能炒作周期預測。
持懷疑觀點的人有幾個共同點。神經網絡需要大量數據,而即使在今天,數據也是有限的。這也是為什么你在 YouTube 上看到的「游戲」AI 示例需要連續幾天不斷地輸掉游戲,直到神經網絡找到獲勝模式。
神經網絡的「深度」在于它們有多層節點,而不是因為它對問題有深度理解。這些層還使神經網絡難以理解,甚至其開發者都無法理解。最重要的是,神經網絡觸及其他問題空間(如旅行推銷員問題,TSP)時會出現回報減少的情況。為什么在搜索算法更有效、更可擴展、更經濟的情況下,我還要用神經網絡解決 TSP 問題?當然了,很多人想使用神經網絡解決該問題,但有趣的是,神經網絡似乎很少超過任何專門算法。
Luke Hewitt 在《The Unreasonable Reputation of Neural Networks》一文中給出了最好的解釋:
僅僅基于單個任務就憑直覺判斷智能機器能夠用得多廣或有多大能力并不是什么好主意。20 世紀 50 年代的下棋機器驚艷了研究人員,許多人將其作為邁向人類水平推理的一大步,但我們現在意識到,在該游戲中達到或超越人類水平比達到人類水平通用智能容易得多。實際上,即使是最優秀的人類也會輕易被簡單的啟發式搜索算法打敗。人類或超人類的表現不一定是在大多數任務中接近人類表現的墊腳石。
我認為應該指出的是,神經網絡的訓練需要利用許多軟件,消耗大量能量。我感覺這是不可持續的。當然,神經網絡預測的效率比它訓練出來的要高得多。然而,我認為,為了實現人們在神經網絡上的野心,神經網絡需要更多訓練,消耗的能量、成本將指數級增長。當然,計算機越來越快,但芯片制造商能否繼續維持摩爾定律?
出于這些原因,我認為又一個 AI 寒冬即將到來。越來越多的專家和博主指出這些局限。企業仍然斥巨資招募最好的「深度學習」和「AI」人才,但我認為企業意識到深度學習并非它們所需只是時間問題。更糟的是,如果你的公司沒有谷歌那樣的研究預算、博士人才或海量用戶數據,那么你很快就會發現你所實踐的「深度學習」前景有限。
每個 AI 寒冬之前總會出現很多科學家夸張、炒作其研究的潛力。他們并不滿足于稱自己的算法能做好一項任務,而是想讓算法適應任意任務,或者至少給人這樣的印象。例如,AlphaZero 擅長棋類游戲,于是媒體的反應是「天啊,通用人工智能到來了!機器人來了!」然后科學家沒有糾正他們,而是鼓勵他們使用此類詞匯。畢竟,降低期待不利于 VC 融資。盡管有一些局限,但 AI 研究者仍然人格化其算法,他們可能出于其他原因,這更像是一個哲學問題,而非科學問題。本文最后將討論這個問題。
那么,接下來呢?
當然并非所有使用「機器學習」或「AI」的企業實際上使用的是「深度學習」。一個好的數據科學家可能會受雇去構建神經網絡,但是在她真正研究這個問題時,構建樸素貝葉斯分類器似乎更合適。對于成功使用圖像識別和語言處理技術的公司而言,它們將樂此不疲。但是我認為神經網絡并沒有走出這些問題空間。
之前的 AI 寒冬對拓寬計算機科學的邊界具有很大的破壞性。必須指出有用的工具出自此類研究,如可以在國際象棋比賽中奪冠或在交通問題中最小化成本的搜索算法。簡而言之,這些出現的創新性算法通常只擅長一項特定任務。
我想表達的是,很多問題已經有許多被證實有效的解決方案。要想順利度過寒冬,你最好專注于你想解決的問題并理解其本質,然后為該問題提供一個直觀的解決方案路徑。如果想對文本信息進行分類,你或許想使用樸素貝葉斯分類器。如果嘗試優化交通網絡,你或許應該使用離散優化。不用管同輩壓力,你可以對卷積模型抱著適當的懷疑態度,并質疑它的正確性。
如果你不買畢達哥拉斯學派的帳,那你最大的努力也就是讓 AI「模擬」行為,創造出它有情感與思想的錯覺。
關于深度學習不是解決其中大部分問題的正確方法,這篇文章解釋的非常明了。不要嘗試為自己的問題尋求一種通用的 AI 解決方案,因為你找不到的。
我們的想法真的是點積嗎?哲學 vs 科學
本文最后,我想說比起科學問題,這更像是一個哲學問題。我們的每一個想法和感覺只是一些以線性形式相乘、相加的數字嗎?我們的大腦只是一個整天做點積運算的神經網絡嗎?將人類意識簡化為數字矩陣,這聽起來像畢達哥拉斯學派。或許這正是很多科學家認為可能出現通用人工智能的原因。
如果你不相信畢達哥拉斯學派,那么你所能做的就是讓 AI「模擬」一種幻象,即它擁有情緒和想法。一個完全不理解中文的翻譯程序可以通過尋找概率模式來模擬出自己理解中文的假象。那么,當你的手機「識別」出狗狗的照片時,它真的認識狗嗎,還是它只是看到了它曾見過的數字模式?
在這篇文章的評論區,有讀者提出了質疑:
@Toby Walsh:
本文開頭有一個經典錯誤,作者表示「因此,英國政府取消了所有 AI 研究經費。」這種說法是不對的。Lighthill 的報告的確導致 AI 經費減少,但有些地方的 AI 研究仍舊受到政府資助,比如愛丁堡大學(我的 AI 方向博士學位就是 20 世紀 80 年代受英國政府資助在愛丁堡大學取得的)、艾塞克斯大學和薩塞克斯大學。實際上,在 Lighthill 的報告出來十年之后,阿爾維計劃(Alvey programme)甚至還大幅增加了 AI 的研究經費。
@Owen Liu:
我認為深度學習架構確實快到極限,但其「應用」并不是這樣。
第一種類型:深度強化學習成功結合了深度學習函數逼近器和傳統強化學習(如動態規劃),并作出了巨大貢獻,開創了學術研究的多種可能性。未來可能會有更多此類例子。
第二種類型:幾乎沒有自動駕駛汽車直接使用神經網絡控制汽車。深度學習通常作為感知任務中的一個模塊。決策、軌跡追蹤和控制都是通過其它算法實現的(如優化技術)。深度學習可用作改變行業的大系統中的一部分(沒有深度學習,自動駕駛汽車幾乎無法在真實的復雜環境中獲得任何合理的結果)。
是的,工具本身正在走向極限,炒作也將慢慢熄火,但深度學習仍然是非常有用的工程技術。
@Kristian:
文章第一部分很不錯,但我對后面的內容有些失望。這篇文章并沒有真正討論目前機器學習方法的技術局限,比如它們離模擬真正神經系統還非常遙遠,也因此可能缺乏實現通用智能系統所需的靈活性和效率。
-
AI
+關注
關注
88文章
35117瀏覽量
279659 -
深度學習
+關注
關注
73文章
5561瀏覽量
122793
原文標題:深度學習已經觸底?這篇文章的觀點令人信服嗎?
文章出處:【微信號:AItists,微信公眾號:人工智能學家】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
信而泰×DeepSeek:AI推理引擎驅動網絡智能診斷邁向 “自愈”時代
基于深度學習的增強版ORB-SLAM3詳解

《AI Agent 應用與項目實戰》----- 學習如何開發視頻應用
軍事應用中深度學習的挑戰與機遇
ChirpIoT技術的優勢以及局限性
AI干貨補給站 | 深度學習與機器視覺的融合探索

評論