女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

人工智能深度學習的成功

汽車玩家 ? 來源:今日頭條 ? 作者:愛生活愛快樂愛自 ? 2020-04-02 09:20 ? 次閱讀

在過去的十年中,圍繞人工智能的突破,投資和企業家活動的爆炸式增長完全由深度學習驅動,深度學習是一種復雜的統計分析技術,用于發現大量數據中的隱藏模式。1955年創造的一個術語(人工智能)被應用到(或錯誤地應用到了)深度學習,這是一種訓練計算機執行某些任務的方法的更高級版本- 機器學習,這個術語是在1959年創造的。

深度學習的最新成功是由于大量數據(大數據)的可用性增加以及圖形處理單元(GPU)的出現,顯著增加了用于訓練計算機的數據的廣度和深度,并減少了所需的時間用于訓練深度學習算法。

“大數據”一詞最早出現在1997年10月由Michael Cox和David Ellsworth撰寫的計算機科學文獻中,該文章發表在IEEE第八屆可視化會議論文集中,“ 針對核心外可視化的應用程序控制的需求分頁 ” 。他們寫道:“可視化給計算機系統帶來了一個有趣的挑戰:數據集通常很大,這給主內存,本地磁盤甚至遠程磁盤的容量增加了負擔。我們稱此為大數據問題 。當數據集不能容納在主存儲器(核心)中,或者甚至不能容納在本地磁盤中時,最常見的解決方案是獲取更多資源。”該術語在學術界之外也曾使用過。

SGI的創始人吉姆·克拉克(Jim Clark)于1974年在“計算機圖形之父”伊萬·薩瑟蘭(Ivan Sutherland)的指導下在猶他大學完成了博士學位論文??死撕髞韯摿⒘薔etscape Communications,其成功的網絡瀏覽器和1995年的IPO引發了“互聯網熱潮”。蒂姆·伯納斯·李(Tim Berners-Lee)在1989年發明了網絡,并成功地使全世界數十億人成為數字數據的消費者和創造者,這為數十億廣泛共享的數字圖像(例如,將貓的照片識別為一只貓”)。

2007年, 普林斯頓大學的計算機科學家Fei-Fei Li和她的同事開始組裝ImageNet,ImageNet是一個帶注釋的圖像的大型數據庫,旨在幫助視覺對象識別軟件研究。五年后,即2012年10月,由多倫多大學研究人員設計的深度學習人工神經網絡在ImageNet大規模視覺識別挑戰賽中的錯誤率僅達到16%,大大超過了25%的錯誤率。一年前最好的進入,預示著“人工智能”的興起。

大數據確實很大。 RJT Morris和BJ Truskowski在“ 存儲系統的發展 ”一書中說,在1996年,數字存儲在存儲數據方面比在紙上更具成本效益。在2002年,數字信息存儲首次超過了非數字存儲。根據馬丁·希爾伯特(Martin Hilbert)和普里西拉·洛佩茲(Priscila Lopez)的“世界存儲,通信和計算信息的技術能力 ”,在1986年至2007年之間,世界的信息存儲能力以每年25%的復合年增長率增長。他們還估計, 1986年,所有存儲容量中有99.2%是模擬存儲,但在2007年,有94%的存儲容量是數字存儲,這完全顛倒了角色。

2000年10月,加州大學伯克利分校的Peter Lyman和Hal Varian發表了“ 多少信息?”,這是第一個以計算機存儲量來量化世界上每年創建的新信息和原始信息(不計算副本)總量的綜合研究。1999年,全世界產生了1.5艾字節的原始數據。2007年3月,John Gantz,David Reinsel和IDC的其他研究人員發布 了第一項研究, 以估計和預測每年創建和復制的數字數據的數量-2006年為161艾字節,據估計,該數字將增加六倍,達到988艾字節。 2010年,或每18個月翻一番。

信息爆炸(根據牛津英語詞典的說法,該術語在1941年首次使用)已經變成了大型數字數據爆炸。但是,可用數據的數量只是使深度學習成功的兩個催化劑之一。另一個是GPU。

雖然深度學習算法的開發及其實際應用在1980年代和1990年代穩步發展,但它們受到計算機能力不足的限制。1986年10月,David Rumelhart,Geoffrey Hinton和Ronald Williams出版了“ 通過反向傳播錯誤學習表示法 ”,其中描述了“一種新的學習過程,即反向傳播,用于神經元樣單元網絡,”是一個概念性突破。在深度學習的發展中。三年后,Yann LeCun和AT&T貝爾實驗室的其他研究人員成功地應用了反向傳播算法到多層神經網絡,識別手寫的郵政編碼。但是鑒于當時的硬件限制,培訓網絡大約花了3天的時間(與以前的工作相比有很大的改進)。

大數據誕生的計算機圖形學得以拯救。到1990年代,實時3D圖形在街機,計算機和游戲機游戲中變得越來越普遍,導致對硬件加速3D圖形的需求增加。索尼在1994年推出家用視頻游戲機PS1時,首先將GPU一詞稱為 “幾何處理單元”。

視頻游戲渲染需要快速并行執行許多操作。圖形卡具有較高的并行度和較高的內存帶寬,但相對于傳統CPU而言,其時鐘速度較低且分支能力較低。碰巧,在人工神經網絡上運行的深度學習算法需要類似的特性-并行性,高內存帶寬,無分支。

到2000年代末,許多研究人員已經證明了GPU在深度學習(特別是對于人工神經網絡訓練)中的實用性。由新的編程語言(如NVIDIA的CUDA)支持的通用GPU已應用于各種深度學習任務。此類應用程序中最明顯的是上述2012年ImageNet挑戰賽的冠軍。

2020年3月18日,計算機技術協會(ACM)將Patrick M.(Pat)Hanrahan和Edwin E.(Ed)Catmull提名為2019 ACM AM圖靈獎的獲得者,以表彰其對3D計算機圖形學的基本貢獻,以及這些技術對電影制作和其他應用中的計算機生成圖像(CGI)產生了革命性的影響。

根據ACM新聞稿,今天,“ 3-D計算機動畫電影代表了在價值1380億美元的全球電影行業中廣受歡迎的類型。3-D計算機圖像對于蓬勃發展的視頻游戲行業以及新興的虛擬現實和增強現實領域也至關重要。Catmull和Hanrahan做出了開創性的技術貢獻,這些貢獻仍然是當今CGI圖像開發方式不可或缺的部分。此外,他們對編程圖形處理單元(GPU)的見解不僅對計算機圖形學產生了影響,還影響了包括數據中心管理和人工智能在內的各個領域。”

像吉姆·克拉克(Jim Clark)一樣,卡特姆(Catmull)是伊萬·薩瑟蘭(Ivan Sutherland)的學生,并于1974年獲得猶他大學的博士學位。正如羅伯特·里夫林(Robert Rivlin)在1986年的著作《算法圖像:計算機時代的圖形視覺》中所寫的那樣,“現代計算機中幾乎每個有影響力的人圖形社區要么通過了猶他大學,要么以某種方式與之接觸?!?/p>

在2010年對 Pat Hanrahan的采訪中,Catmull描述了U U工作環境:

“戴夫·埃文斯(Dave Evans)是該系主任,伊萬(Ivan)在教書,但他們的公司埃文斯(Evans)和薩瑟蘭(Sutherland)花費了所有多余的時間。這些學生幾乎是獨立的,這是我真正的肯定,因為學生必須自己做一些事情。我們期望創造原創作品。我們處于前沿,我們的工作是擴展它。他們基本上說:“您可以每隔一段時間與我們聯系,我們將與您聯系,但我們將關閉這家公司。”

我認為效果很好!它建立了相互支持,共同工作的環境?!?/p>

在同一討論的稍后部分,Hanrahan說:

“當我第一次對研究生院的圖形感興趣時,我聽說過要制作完整的計算機生成圖片的要求。當時,我對人工智能非常感興趣,因為人工智能具有圖靈測試和模仿思維的想法。我認為制作計算機生成圖片的想法是對人的思維進行建模的先驅,或者至少與之類似,因為您必須對整個虛擬世界進行建模,并且必須在該世界中擁有人-如果虛擬世界和其中的人們看起來并不聰明,那么該世界將無法通過圖靈測試,因此看起來似乎不太合理。

我想我很聰明,以為我們一生中實際上無法建立人類智力模型。因此,我對圖形感興趣的原因之一是我認為它具有良好的長期職業發展潛力?!?/p>

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1804

    文章

    48691

    瀏覽量

    246423
  • 深度學習
    +關注

    關注

    73

    文章

    5554

    瀏覽量

    122474
收藏 人收藏

    評論

    相關推薦
    熱點推薦

    數學專業轉人工智能方向:考研/就業前景分析及大學四年學習路徑全揭秘

    隨著AI技術的不斷進步,專業人才的需求也日益增長。數學作為AI的基石,為機器學習、深度學習、數據分析等提供了理論基礎和工具,因此越來越多的數學專業學生開始考慮在人工智能領域發展。本文主
    的頭像 發表于 02-07 11:14 ?835次閱讀
    數學專業轉<b class='flag-5'>人工智能</b>方向:考研/就業前景分析及大學四年<b class='flag-5'>學習</b>路徑全揭秘

    人工智能和機器學習以及Edge AI的概念與應用

    人工智能相關各種技術的概念介紹,以及先進的Edge AI(邊緣人工智能)的最新發展與相關應用。 人工智能和機器學習是現代科技的核心技術 人工智能
    的頭像 發表于 01-25 17:37 ?805次閱讀
    <b class='flag-5'>人工智能</b>和機器<b class='flag-5'>學習</b>以及Edge AI的概念與應用

    嵌入式和人工智能究竟是什么關系?

    、連接主義和深度學習等不同的階段。目前,人工智能已經廣泛應用于各種領域,如自然語言處理、計算機視覺、智能推薦等。 嵌入式系統和人工智能在許
    發表于 11-14 16:39

    人工智能、機器學習深度學習存在什么區別

    人工智能指的是在某種程度上顯示出類似人類智能的設備。AI有很多技術,但其中一個很大的子集是機器學習——讓算法從數據中學習
    發表于 10-24 17:22 ?2758次閱讀
    <b class='flag-5'>人工智能</b>、機器<b class='flag-5'>學習</b>和<b class='flag-5'>深度</b><b class='flag-5'>學習</b>存在什么區別

    《AI for Science:人工智能驅動科學創新》第6章人AI與能源科學讀后感

    、優化等方面的應用有了更清晰的認識。特別是書中提到的基于大數據和機器學習的能源管理系統,通過實時監測和分析能源數據,實現了能源的高效利用和智能化管理。 其次,第6章通過多個案例展示了人工智能在能源科學中
    發表于 10-14 09:27

    AI for Science:人工智能驅動科學創新》第4章-AI與生命科學讀后感

    研究的進程。從蛋白質結構預測到基因測序與編輯,再到藥物研發,人工智能技術在生命科學的各個層面都發揮著重要作用。特別是像AlphaFold這樣的工具,成功解決了困擾生物學界半個多世紀的蛋白質折疊問題,將
    發表于 10-14 09:21

    《AI for Science:人工智能驅動科學創新》第二章AI for Science的技術支撐學習心得

    人工智能在科學研究中的核心技術,包括機器學習深度學習、神經網絡等。這些技術構成了AI for Science的基石,使得AI能夠處理和分析復雜的數據集,從而發現隱藏在數據中的模式和規
    發表于 10-14 09:16

    《AI for Science:人工智能驅動科學創新》第一章人工智能驅動的科學創新學習心得

    人工智能:科學研究的加速器 第一章清晰地闡述了人工智能作為科學研究工具的強大功能。通過機器學習、深度學習等先進技術,AI能夠處理和分析海量
    發表于 10-14 09:12

    risc-v在人工智能圖像處理應用前景分析

    人工智能推薦系統中強大的圖形處理器(GPU)一爭高下。其獨特的設計使得該處理器在功耗受限的條件下仍能實現高性能的圖像處理任務。 Ceremorphic公司 :該公司開發的分層學習處理器結合了
    發表于 09-28 11:00

    人工智能ai4s試讀申請

    目前人工智能在繪畫對話等大模型領域應用廣闊,ai4s也是方興未艾。但是如何有效利用ai4s工具助力科研是個需要研究的課題,本書對ai4s基本原理和原則,方法進行描訴,有利于總結經驗,擬按照要求準備相關體會材料。看能否有助于入門和提高ss
    發表于 09-09 15:36

    名單公布!【書籍評測活動NO.44】AI for Science:人工智能驅動科學創新

    ! 《AI for Science:人工智能驅動科學創新》 這本書便將為讀者徐徐展開AI for Science的美麗圖景,與大家一起去了解: 人工智能究竟幫科學家做了什么? 人工智能將如何改變我們所生
    發表于 09-09 13:54

    報名開啟!深圳(國際)通用人工智能大會將啟幕,國內外大咖齊聚話AI

    ,得到了華為、騰訊、優必選、中煤科工、中國聯通、云天勵飛、考拉悠然、智航、力維智聯等國內人工智能企業的深度參與和大力支持。 報名后即可到現場領取禮品,總計5000份,先到先選! 點擊報名:https://bbs.elecfans.com/jishu_2447254_1
    發表于 08-22 15:00

    FPGA在人工智能中的應用有哪些?

    FPGA(現場可編程門陣列)在人工智能領域的應用非常廣泛,主要體現在以下幾個方面: 一、深度學習加速 訓練和推理過程加速:FPGA可以用來加速深度
    發表于 07-29 17:05

    人工智能、機器學習深度學習是什么

    在科技日新月異的今天,人工智能(Artificial Intelligence, AI)、機器學習(Machine Learning, ML)和深度學習(Deep Learning,
    的頭像 發表于 07-03 18:22 ?2534次閱讀

    人工智能深度學習的五大模型及其應用領域

    隨著科技的飛速發展,人工智能(AI)技術特別是深度學習在各個領域展現出了強大的潛力和廣泛的應用價值。深度學習作為人工智能的一個核心分支,通過
    的頭像 發表于 07-03 18:20 ?6254次閱讀