女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

只有提高算力才能發展AI? 強化學習之父薩頓與牛津教授掀起隔空論戰

5RJg_mcuworld ? 來源:YXQ ? 2019-03-25 17:22 ? 次閱讀

70年來, 人們在AI領域“一直連續犯著同樣的錯誤”。這是“強化學習之父”理查德·薩頓(Richard S. Sutton)為同行后輩們敲響的警鐘。

他在博客上發表最新文章《苦澀的教訓》(The Bitter Lesson),總結了AI發展史上的怪圈:

人類不斷試圖把自己的知識和思維方式植入到AI之中,比如用人類的思路教AI下棋、將讓AI按照人類總結的思路來識別圖像等等。這些做法能帶來暫時的性能提升,長期來看卻會阻礙研究的持續進步。真正的突破,總是來自完全相反的方向。摒棄人類在特定領域的知識、利用大規模算力的方法,總會獲得最終勝利??孔晕覍哪拠寮妓嚨腁lphaGo,基于統計方法、深度學習來識別語音、圖像的算法,一次次擊敗先前那些濃縮了人類知識的AI,甚至人類自己。搜索、學習,充分利用大規模算力才是王道。用人類在特定領域的知識來提升AI智能體的能力,都是在走彎路。

薩頓說:“將AI建立在我們對自身思維方式的認知上,是行不通的?!監penAI首席科學家Ilya Sutskever精辟地總結了薩頓的核心觀點:算力常勝。

文章一發出,就引發了熱烈的討論,OpenAI CTO Greg Brockman、特斯拉AI總監Andrej Karpathy等人都在轉發附議。

DeepMind機器學習團隊主管&牛津大學教授Nando de Freitas甚至稱之為“周末必讀”。

然而,也有反對的聲音。牛津大學計算機系教授希蒙·懷特森(Shimon Whiteson)連發13條Twitter反駁薩頓的觀點,表示“堅決不同意”,同樣獲得了大量支持。

懷特森認為,構建AI當然需要融入人類知識,問題只在于該何時、如何、融入哪些知識。AI的歷史進程是一場融入人類知識的勝利??茖W家們廣泛嘗試,拋棄失敗的99%,留下有用的1%。而這1%,對現代人工智能算法成功的重要性不亞于薩頓推崇的大量計算資源。一場隔空論戰,就這樣展開了。

我們先讀完“本周末必讀”的薩頓博文,看看正方的觀點。

苦澀的教訓

回溯70年的AI研究,從中得出的最大經驗是,利用計算力的通用方法最終總是最有效的,而且遙遙領先。出現這種情況的終極原因是摩爾定律,或者寬泛一點來說,是單位算力成本的持續指數級下降。大多數AI研究都以智能體可用算力恒定為前提進行,在這種情況下,利用人類知識可能是提升性能的唯一方法。但是,將目光投向比一個典型研究項目更長遠的時間段,就會發現必然有更多可用的算力出現。為了尋求短期可見的提升,研究人員會利用該領域的人類知識,但從長遠來看,利用算力才是唯一重要的事。

雖然但這兩者看似沒有必要相互對立,但實際上它們往往是對立的。

在一個方向上花費的時間,就必然不能花在另一個方向。對于某一種方法的投入也會帶來心理上的承諾。同時,用人類知識來提升AI會傾向于使方法復雜化,讓運用算力的通用計算方法變得不太適用。很多AI研究人員后知后覺地領悟了這種“苦澀的教訓”?;仡櫰渲凶钪匾囊恍╊H有啟發。

在國際象棋領域,1997年擊敗國際象棋冠軍卡斯帕羅夫的深藍,就是基于大規模深度搜索。當時,大多數計算機國際象棋研究者都以沮喪的眼光看待它,他們追求用人類對國際象棋特殊結構的理解制勝。當一種更簡單的、有特殊硬件和軟件加持的基于搜索的方法被證明更有效,這些基于人類知識下國際象棋的研究者輸得一點都“不體面”。他們說,這種“用蠻力”的搜索可能這次能贏,但這終究不是通用策略,無論如何這也不是人類下棋的方式。

他們希望基于人類輸入的方法獲勝,卻事與愿違,只剩失望。計算機圍棋領域,研究進展也遵循著同樣的模式,只是比國際象棋遲了20年。這一領域最初的眾多努力,都是利用人類知識或游戲的特殊特性避免搜索,然而,搜索一被大規模高效應用,這些努力都變得無關緊要,甚至更糟。利用自我對弈來學習一種價值函數同樣重要(在許多其他游戲、甚至在國際象棋中也一樣,雖然在1997年的深藍項目中沒有發揮很大作用)。通過自我對弈來學習,以及學習本身,其實都和搜索一樣,讓大規模計算有了用武之地。

搜索和學習是AI研究中應用大規模計算力的兩類最重要技術。

在計算機圍棋和國際象棋項目中,研究人員最初努力的方向是如何去利用人類的理解(這樣就不需要太多的搜索),很久以后,才通過擁抱搜索和學習取得了更大的成功。

語音識別領域,很早之前曾有一場競賽,1970年由DARPA主辦。在這場比賽中,一部分參賽者運用那些需要人類知識(單詞知識、音素知識、人類聲道知識等等)的特殊方法。也有一部分人基于隱馬爾可夫模型(HMMs)完成比賽。這種新方法本質上更具統計性質,也需要更大的計算量。

不出所料,最終統計方法戰勝了基于人類知識的方法。這場比賽為所有自然語言處理任務都帶來了巨大的改變,在過去的幾十年里,統計和算力逐漸占據主導地位。語音識別中興起沒多久的深度學習,也是朝著這一方向邁出的最新一步。深度學習方法對人類知識的依賴甚至更少,用到了更多的算力。通過在大型訓練集上的學習,能得到更好的語音識別系統。

就像在棋類游戲中一樣,研究人員總是試圖讓系統按照他們心目中的人類的思維方式工作,試圖把這些知識放進計算機的系統里。但最終,當摩爾定律帶來大規模算力,其他人也找到了一種充分利用它的方法時,會發現原來的做法適得其反,是對研究人員時間的巨大浪費。

計算機視覺領域,也有類似的模式。早期的方法,將視覺設想為搜索邊緣、廣義圓柱體,或者SIFT算法捕捉的特征。但現在,所有這些方法都被拋棄了?,F代的深度學習神經網絡,只使用卷積和某些不變性的概念,而效果要好得多。

這些教訓告訴我們,(AI)這個領域,我們仍然沒有完全了解,我們連續犯著同樣的錯誤。為了認清狀況,有效防止犯錯,我們必須理解這些錯誤有什么吸引力。我們必須從這”苦澀的教訓”中學習:長遠來看,將AI建立在我們對自身思維方式的認知上是行不通的。而突破性進展最終會來自完全相反的方法:基于搜索和學習進行規模計算。最終的成功總是帶來些許怨恨,通常也不被完全理解,因為它超越了當前受歡迎的、以人為中心的方法。

從歷史的教訓中,我們能學到兩點。

第一,通用型方法有強大的力量。即使可用的算力變得非常大,這些方法仍然可以繼續擴展,運用增加的算力。似乎可以按照這種方式任意擴展的方法有兩種:搜索和學習。

第二,思維的實際內容復雜到非??膳聼o可救藥。我們不該再試圖尋找簡單的方法來思考其內容,比如,用簡單的方式去思考空間、物體、多智能體或者對稱性。

所有這些,都是隨意、本質上非常復雜的外部世界的一部分。它們不應該內置在任何一個AI智能體中,因為它們復雜得沒有盡頭。相反,我們應該只構建能發現和捕獲這種任意復雜性的元方法,這種方法的本質是能夠很好地找到近似值。不過,尋找的工作應該交給我們的方法,而不是我們自己。我們需要的是能像我們一樣進行發現的AI智能體,而不是包含我們已經發現的東西在內的AI。

在我們發現的基礎上建立AI,只會讓它更難看到發現的過程是如何進行的。

原文鏈接:

http://www.incompleteideas.net/IncIdeas/BitterLesson.html

“甜蜜的一課”

堅決不同意薩頓觀點的懷特森老師認為,構建AI當然需要融入人類知識,問題只在于該何時、如何、融入哪些知識。AI歷史上有“甜蜜的一課”(The Sweet Lesson),我們在嘗試尋找正確先驗知識的過程中,推動了AI的進步。他將薩頓的觀點總結為:“AI的歷史告訴我們,利用算力最終總是戰勝利用人類知識。”

以下是懷特森Twitter內容的翻譯整理:

我認為這是對歷史的一種特殊解釋。的確,很多把人類知識融入AI的努力都已經被拋棄,隨著其他資源(不僅僅是計算力,還包括存儲、能源、數據)的豐富,還會拋棄更多。但是,由此產生的方法的成功,不能僅僅歸功于這些豐富的資源,其中那些沒有被拋棄的人類知識也功不可沒。

要是想脫離卷積、LSTM、ReLU、批歸一化(batchnorm)等等做深度學習,祝你好運。要是拋開“圍棋是靜態、零和、完全可觀察的”這一先驗知識,就像搞定這個游戲,也祝你好運。所以,AI的歷史故事并非融入人類知識一直失敗。恰恰相反,這是融入人類知識的勝利,實現的路徑也正是一種完全符合慣例的研究策略:嘗試很多方法,拋棄失敗的99%。剩下的1%對現代人工智能的成功至關重要,就和AI所以來的大量計算資源一樣關鍵。

薩頓說,世界固有的復雜性表明,我們不該把先驗知識融入到系統中。但是我的觀點恰恰相反:正是這種復雜性,導致他推崇的搜索和學習方法極度復雜難解。只有借助正確的先驗知識,正確的歸納偏見(inductive biases),我們才能掌握這種復雜性。他說,“現代的深度學習神經網絡,只使用卷積和某些不變性的概念,而效果要好得多?!币粋€“只”字就凸顯了這種斷言的武斷性。如果沒有這些卷積和不變性,深度學習就不會成功,但它們卻被視作微小、通用到可以接受。

就是這樣,“苦澀的教訓”避開了主要問題,這根本不是要不要引入人類知識的問題(因為答案顯然是肯定的),而是該問這些知識是什么,該在何時、如何使用它。

薩頓說,“我們需要的是能像我們一樣進行發現的AI智能體,而不是包含我們已經發現的東西在內的AI?!碑斎?。但是我們善于發現正是因為我們天生帶有正確的歸納偏見。

AI歷史上的“甜蜜一課”是這樣的:雖然找到正確的歸納偏見很難,但尋找的過程為原本難解的問題帶來了巨大的進展。

原文鏈接:

https://twitter.com/shimon8282/status/1106534185693532160

論戰雙方

這場隔空論戰的雙方,分別是“強化學習之父”薩頓,和牛津大學計算機系教授希蒙·懷特森。都是強化學習領域的科學家,觀點卻截然相反。

強化學習之父:薩頓

薩頓,被認為是現代計算強化學習的創始人之一,為強化學習做出了許多貢獻,比如“時序差分學習”(temporal difference learning)和“策略梯度方法”(policy gradient methods)等等。

1978年,薩頓在斯坦福大學獲得了心理學學士學位,之后才轉向計算機科學,在馬薩諸塞大學安姆斯特分校獲得博士學位。他與導師Andrew Barto合著的《強化學習導論》一書,已經成為強化學習研究領域的基礎讀物。目前,薩頓任教于阿爾伯塔大學,是計算機科學系的教授和 iCORE Chair,領導強化學習和人工智能實驗室。2017年6月,薩頓加入Deepmind,共同領導其位于加拿大埃德蒙頓的辦公室,同時保持他在阿爾伯塔大學的教授職位。2001年以來,薩頓一直都是AAAI Fellow,在2003年獲得國際神經網絡學會頒發的President’s Award,并于2013年獲得了馬薩諸塞大學阿默斯特分校頒發的杰出成就獎。

來自牛津大學的反對者:懷特森

希蒙·懷特森,是牛津大學計算機系的教授,專注于人工智能和機器學習領域。強化學習、讓智能體跟著演示學習都是他所研究的課題。他2007年獲得美國德克薩斯大學奧斯汀分校的計算機博士學位,隨后留校做了一段時間的博士后,然后任教于丹麥阿姆斯特丹大學。2015年,懷特森成為牛津大學副教授,2018年成為教授。

隔空論戰,你支持誰?

除了懷特森之外,也有不少人對薩頓的觀點表示不能完全同意。比如Nando de Freitas認為薩頓博文的最后一段非常正確、發人深?。?/p>

我們需要的是能像我們一樣進行發現的AI智能體,而不是包含我們已經發現的東西在內的AI。在我們發現的基礎上建立AI,只會讓它更難看到發現的過程是如何進行的。

但他也就著懷特森的觀點,談了一些自己的想法:帝國理工學院教授、DeepMind高級研究員Murray Shanahan雖然支持不能人工手寫特定領域的先驗知識,但還是認為“應該尋找有利于讓AI學習這些常識類別的架構上的先驗”。

德克薩斯大學奧斯汀分校的助理教授Scott Niekum說,他大致同意薩頓的觀點,但也有值得商榷的地方,比如科學從來都不是一條直線,很多最重要的發現,可能就來自借助內建特定領域知識來研究那些不夠通用的模型的過程。

這個問題,你怎么看?

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    34197

    瀏覽量

    275351
  • 強化學習
    +關注

    關注

    4

    文章

    269

    瀏覽量

    11517

原文標題:只有大規模算力才能救AI?強化學習之父 vs 牛津教授掀起隔空論戰

文章出處:【微信號:mcuworld,微信公眾號:嵌入式資訊精選】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    DeepSeek推動AI需求:800G光模塊的關鍵作用

    隨著人工智能技術的飛速發展,AI需求正以前所未有的速度增長。DeepSeek等大模型的訓練與推理任務對
    發表于 03-25 12:00

    Banana Pi 與瑞電子攜手共同推動開源創新:BPI-AI2N

    (embedded world 2025) 的瑞電子展位(Hall 1 Stand 234) 展出,讓開發者和行業用戶能夠直觀體驗其強大性能。我們期待在未來的合作中,不斷拓展產品邊界,推動行業發展,為全球用戶帶來更具競爭的解
    發表于 03-12 09:43

    詳解RAD端到端強化學習后訓練范式

    受限于和數據,大語言模型預訓練的 scalinglaw 已經趨近于極限。DeepSeekR1/OpenAl01通過強化學習后訓練涌現了強大的推理能力,掀起新一輪技術革新。
    的頭像 發表于 02-25 14:06 ?475次閱讀
    詳解RAD端到端<b class='flag-5'>強化學習</b>后訓練范式

    信而泰CCL仿真:解鎖AI極限,智中心網絡性能躍升之道

    引言 隨著AI大模型訓練和推理需求的爆發式增長,智中心網絡的高效性與穩定性成為決定AI產業發展的核心要素。信而泰憑借自主研發的 CCL(集合通信庫)評估工具 與 DarYu-X系列測
    的頭像 發表于 02-24 17:34 ?365次閱讀
    信而泰CCL仿真:解鎖<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>極限,智<b class='flag-5'>算</b>中心網絡性能躍升之道

    中心的如何衡量?

    作為當下科技發展的重要基礎設施,其的衡量關乎其能否高效支撐人工智能、大數據分析等智能應用的運行。以下是對智中心算衡量的詳細闡述:一、
    的頭像 發表于 01-16 14:03 ?1863次閱讀
    <b class='flag-5'>算</b>智<b class='flag-5'>算</b>中心的<b class='flag-5'>算</b><b class='flag-5'>力</b>如何衡量?

    企業AI租賃模式的好處

    構建和維護一個高效、可擴展的AI基礎設施,不僅需要巨額的初期投資,還涉及復雜的運維管理和持續的技術升級。而AI
    的頭像 發表于 12-24 10:49 ?1126次閱讀

    螞蟻集團收購邊塞科技,吳翼出任強化學習實驗室首席科學家

    領域的研究與發展。令人矚目的是,邊塞科技的創始人吳翼已正式加入該實驗室,并擔任首席科學家一職。 吳翼在其個人社交平臺上對這一變動進行了回應。他表示,自己最近接受了螞蟻集團的邀請,負責大模型強化學習領域的研究工
    的頭像 發表于 11-22 11:14 ?1323次閱讀

    企業AI租賃是什么

    企業AI租賃是指企業通過互聯網向專業的提供商租用所需的計算資源,以滿足其AI應用的需求。
    的頭像 發表于 11-14 09:30 ?2275次閱讀

    如何使用 PyTorch 進行強化學習

    強化學習(Reinforcement Learning, RL)是一種機器學習方法,它通過與環境的交互來學習如何做出決策,以最大化累積獎勵。PyTorch 是一個流行的開源機器學習庫,
    的頭像 發表于 11-05 17:34 ?915次閱讀

    GPU開發平臺是什么

    隨著AI技術的廣泛應用,需求呈現出爆發式增長。AI租賃作為一種新興的服務模式,正逐漸成為
    的頭像 發表于 10-31 10:31 ?558次閱讀

    芯片 高性能 CPU/GPU/NPU 微架構分析》第1-4章閱讀心得——之巔:從基準測試到CPU微架構的深度探索

    ,還優化了能效比,使天河二號在Green500榜單上也表現出色。另一方面,MLPerf的出現標志著AI時代對需求的變化。它涵蓋了圖像分類、目標檢測、自然語言理解、智能推薦算法、強化學習
    發表于 10-19 01:21

    青云科技強化AI架構,升級產品與服務體系

    10月9日,青云科技正式揭曉了其升級版的產品與服務陣容、行業及場景定制化解決方案,以及全新的生態戰略。該公司旨在通過AI平臺、AI
    的頭像 發表于 10-10 16:42 ?769次閱讀

    大模型時代的需求

    現在AI已進入大模型時代,各企業都爭相部署大模型,但如何保證大模型的,以及相關的穩定性和性能,是一個極為重要的問題,帶著這個極為重要的問題,我需要在此書中找到答案。
    發表于 08-20 09:04

    通過強化學習策略進行特征選擇

    更快更好地學習。我們的想法是找到最優數量的特征和最有意義的特征。在本文中,我們將介紹并實現一種新的通過強化學習策略的特征選擇。我們先討論強化學習,尤其是馬爾可夫決策
    的頭像 發表于 06-05 08:27 ?583次閱讀
    通過<b class='flag-5'>強化學習</b>策略進行特征選擇