女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

神經擬態計算將是改變AI發展的關鍵

牽手一起夢 ? 來源:科技日報 ? 作者:佚名 ? 2020-06-22 17:56 ? 次閱讀

知名信息研究和分析機構高德納預測,到2025年,神經擬態芯片有望成為用于AI系統的主要芯片之一。

20世紀80年代,科學家設想將人類大腦的功能映射到硬件上,即直接用硬件來模擬人腦結構,這種方法稱為神經擬態計算,這類硬件被稱為神經擬態芯片。經過近40年發展,神經擬態芯片相繼問世。全球知名信息研究和分析機構高德納(Gartner)日前的預測顯示,到2025年,神經擬態芯片將成為高級人工智能部署的主要計算架構,該芯片有望成為用于AI系統的主要計算機芯片之一。

脈沖神經網絡信息處理不再依賴計算機

傳統人工智能主要以計算,即通過編程等手段實現機器智能。其中深度學習是目前廣泛應用的技術之一,2006年左右,深度學習技術進入大眾視野。它通過添加多層人工神經網絡,賦予機器視覺語音識別以及自然語言處理等方面的能力。

盡管深度學習有人工神經網絡的加持,但通過計算實現智能的影子并未消失。“只不過與傳統計算相比,深度學習的算法模型發生了變化,實現的物理載體依然是計算機。”北京大學信息科學技術學院教授黃鐵軍接受采訪時表示。

“而與深度學習采用的多層人工智能神經網絡不同,神經擬態計算構造的是脈沖神經網絡,通過模擬生物神經網絡實現智能。它本身就是能處理信息的載體,不再依賴于計算機。”黃鐵軍表示,神經擬態計算是探索實現人工智能的新范式。在信息處理方面,現在的人工神經網絡處理的是相對靜態的、固定的信息,脈沖神經網絡則適合處理與時空高度相關的復雜信息流。

舉例來說,機器人看到豹子時,采用深度學習方法能識別出是豹子,但對機器人而言這只是一個系統中的信息標簽,而這些信息好像與它無關,機器并不能結合這些信息為下一步的行動作出判斷。而人看到豹子,不僅可以通過外觀識別出自己面對的動物是猛獸,還會觀察豹子的行動,甚至判斷自己所處的現實環境,并根據綜合信息作出是否需要逃跑的判斷。“這才是真正的智能。智能不僅是信息分類這么簡單,它是對時空信息進行綜合處理并作出決策行動的過程。”黃鐵軍解釋道,神經擬態計算就是要通過模擬生物神經網絡的方式,讓機器擁有接近甚至超越生物神經網絡的系統,幫助機器感知自然界中時空變化的信息,實時處理信息流并采取行動。

電腦”超越人腦成為可能

深度學習的大規模應用對計算機的計算能力提出更高要求,同時也讓經典計算機的耗能一直居高不下,而按照生物神經網絡結構設計的神經擬態計算,已成為大勢所趨和必然選擇。

神經擬態學工程師、德國海德堡大學物理學家卡爾海因茨·邁耶(Karlheinz Meier)表示,人腦相對計算機而言有三大特性:一是低能耗,人腦的功率大約是20瓦特,而當前試圖模擬人腦的超級計算機需要幾百萬瓦特;二是容錯性,人腦時刻都在失去神經元,而不會影響腦內的信息處理機制,而微處理器失去一個晶體管就能被破壞;三是無須編程,大腦在與外界交互的過程中自發地學習和改變,而無需像實現人工智能的程序一樣遵循預設算法所限制的路徑和分支。

黃鐵軍認為,通過模仿生物神經網絡實現機器智能是一條十分重要的研究路線,未來它甚至有可能突破生物智能的天花板。盡管生物神經網絡是一個慢速系統,每秒鐘能產生的神經脈沖數量只有十幾個,生物獲取和處理的信息量也處于較低水平,但一旦將生物神經網絡電子化,其處理信息的能力將比被模擬的生物大腦高出多個數量級。

黃鐵軍說,當與人腦類似的“電腦”變為現實時,它對人腦的大幅度超越就發生了:速度上,“電腦”可以比人腦快多個數量級;規模上,沒有顱骨限制,“電腦”可以根據需求擴容;壽命上,電子系統即使有損耗,也可以復制遷移到新系統而永生;精度上,生物大腦的很多缺陷和短板將被“電腦”避免和彌補。

目前缺乏應用于現實的模型

雖然神經擬態計算前景廣闊,但要實際應用仍面臨不小挑戰。黃鐵軍認為,缺少應用于現實的模型是神經擬態計算最大的瓶頸。

目前不少研究人員正在尋覓突破瓶頸的方式。有兩種主要的技術途徑:第一種是照著生物的腦部結構,依葫蘆畫瓢設計神經擬態計算系統。但前提是搞清楚生物神經網絡的細節,如神經元的功能、結構,神經突觸連接的特性等。

當前,人腦神經元的工作模式大體上已被科學家們掌握,大腦中數百個腦區的功能分工也已探明,但是腦區內的神經元網絡的細節依舊是個謎。如果把生物神經網絡看成地球,單個神經元就是城市里的一戶人家,目前城市之間的交通連接是比較清楚的,但這遠遠不夠,還要搞清楚每戶人家是如何連接起來的。人腦有近千億個神經元和數百萬億個連接,要解析出精細藍圖,工程量可想而知。

黃鐵軍認為,20年內就很有可能弄清楚人腦神經網絡的精細結構。他還提到,研究人腦結構是個長遠目標,目前的工作重點是斑馬魚、果蠅等動物的腦結構。他預測,幾年之內果蠅腦(包含約30萬神經元)就能解析清楚,這個級別的脈沖神經網絡模型就會出現,利用果蠅腦模型,無人機就能更好地實現飛行、避障、追逐等。

在生物神經網絡藍圖完成之前,第二種技術路徑是人工設計脈沖神經網絡模型。這也是黃鐵軍團隊的工作內容之一,如基于對生物視覺的初步了解,設計視覺脈沖神經網絡模型;根據機器對于目標檢測、跟蹤和識別功能的需求,研發超速全時視網膜芯片等。

專家表示,一旦能解決實際問題,神經擬態計算將會改變人工智能的發展格局。不過,深度學習作為基本方法依然有存在價值,就像算法仍然會在其擅長的領域發揮作用一樣。另外,仿生物神經網絡是實現強人工智能的一條途徑,多種多樣的生物智能本身就是最好的證據,但這不等于說所有的智能問題都要用仿生方式去解決。

“神經擬態計算不是實現智能的唯一方式。”黃鐵軍強調。
責任編輯:tzh

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 芯片
    +關注

    關注

    459

    文章

    52160

    瀏覽量

    436070
  • 人工智能
    +關注

    關注

    1804

    文章

    48691

    瀏覽量

    246429
  • 人工神經網絡

    關注

    1

    文章

    120

    瀏覽量

    14859
收藏 人收藏

    評論

    相關推薦
    熱點推薦

    AI神經網絡降噪算法在語音通話產品中的應用優勢與前景分析

    隨著人工智能技術的快速發展AI神經網絡降噪算法在語音通話產品中的應用正逐步取代傳統降噪技術,成為提升語音質量的關鍵解決方案。相比傳統DSP(數字信號處理)降噪,
    的頭像 發表于 05-16 17:07 ?188次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>神經</b>網絡降噪算法在語音通話產品中的應用優勢與前景分析

    DeepSeek推動AI算力需求:800G光模塊的關鍵作用

    隨著人工智能技術的飛速發展AI算力需求正以前所未有的速度增長。DeepSeek等大模型的訓練與推理任務對算力的需求持續攀升,直接推動了服務器、光通信設備以及數據中心基礎設施的升級。特別是在大規模算
    發表于 03-25 12:00

    Banana Pi 發布 BPI-AI2N &amp; BPI-AI2N Carrier,助力 AI 計算與嵌入式開發

    和 Renesas一直致力于推動開源生態的發展,并積極合作打造高效、開放的計算平臺。BPI-AI2N & BPI-AI2N Carrier 的發布,不僅為開發者提供了強大的硬
    發表于 03-19 17:54

    數據采集在AI行業的應用、優勢及未來發展趨勢

    人工智能(AI)作為21世紀最具革命性的技術之一,正在深刻改變各行各業。AI的核心驅動力是數據,而數據采集則是AI發展的基石。無論是機器學習
    的頭像 發表于 03-07 14:12 ?550次閱讀
    數據采集在<b class='flag-5'>AI</b>行業的應用、優勢及未來<b class='flag-5'>發展</b>趨勢

    FPGA+AI王炸組合如何重塑未來世界:看看DeepSeek東方神秘力量如何預測......

    合。未來,FPGA將更多地集成到系統級芯片(SoC)中,形成更高效的計算平臺。? 開發工具與門檻降低:隨著高級綜合工具(HLS)和AI框架(如NVIDIA Modulus)的發展,FPGA的開發門檻逐漸
    發表于 03-03 11:21

    當我問DeepSeek AI爆發時代的FPGA是否重要?答案是......

    資源浪費。例如,在深度學習模型推理階段,FPGA可以針對特定的神經網絡結構進行硬件加速,提高推理速度。 3.支持邊緣計算與實時應用 ? 邊緣計算:隨著物聯網的發展,越來越多的
    發表于 02-19 13:55

    AI賦能邊緣網關:開啟智能時代的新藍海

    。這一變革不僅帶來了技術架構的革新,更為產業發展開辟了新的增長空間。 傳統邊緣網關受限于計算能力和算法支持,往往只能完成數據采集和簡單處理,大量原始數據需要回傳云端處理,導致響應延遲和帶寬壓力。AI技術
    發表于 02-15 11:41

    計算HPC軟件關鍵技術

    計算HPC軟件關鍵技術涉及系統架構、處理器技術、操作系統、計算加速、網絡技術以及軟件優化等多個方面。下面,AI部落小編帶您探討云計算HPC
    的頭像 發表于 12-18 11:23 ?377次閱讀

    AI高性能計算平臺是什么

    AI高性能計算平臺不僅是AI技術發展的基石,更是推動AI應用落地、加速產業升級的重要工具。以下,是對AI
    的頭像 發表于 11-11 09:56 ?578次閱讀

    未來AI大模型的發展趨勢

    上得到了顯著提升。未來,算法和架構的進一步優化將推動AI大模型在性能上實現新的突破。 多頭自注意力機制、前饋神經網絡等關鍵技術的改進,將增強模型的表達能力和泛化能力。 多模態融合 : AI
    的頭像 發表于 10-23 15:06 ?1726次閱讀

    AI for Science:人工智能驅動科學創新》第二章AI for Science的技術支撐學習心得

    人工智能在科學研究中的核心技術,包括機器學習、深度學習、神經網絡等。這些技術構成了AI for Science的基石,使得AI能夠處理和分析復雜的數據集,從而發現隱藏在數據中的模式和規律。 2. 高性能
    發表于 10-14 09:16

    開啟全新AI時代 智能嵌入式系統快速發展——“第六屆國產嵌入式操作系統技術與產業發展論壇”圓滿結束

    計算機學院牛建偉教授主持。 中科院軟件所副所長、總工程師,武延軍研究員做了“AI大模型時代下的操作系統發展思考”主題演講。 武延軍介紹了操作系統的發展歷程,指出應用的高速
    發表于 08-30 17:24

    計算機視覺技術的AI算法模型

    技術AI算法模型,包括卷積神經網絡(CNN)、循環神經網絡(RNN)、支持向量機(SVM)、卡爾曼濾波器(Kalman Filter)和隨機森林(Random Forest)等,并對它們的特點、應用及
    的頭像 發表于 07-24 12:46 ?1575次閱讀

    Imagination 引領邊緣計算AI創新,擁抱AI未來發展

    ,致力于推動技術創新,擁抱人工智能的未來發展。同時他也介紹了Imagination在計算領域的戰略布局、產品技術以及對未來AI發展的深刻洞察。Imagination
    的頭像 發表于 06-28 08:28 ?817次閱讀
    Imagination 引領邊緣<b class='flag-5'>計算</b>和<b class='flag-5'>AI</b>創新,擁抱<b class='flag-5'>AI</b>未來<b class='flag-5'>發展</b>

    神經擬態計算是如何降耗的

    計算機問世以來,運算效能與能耗消耗兩大議題始終困擾著計算產業。在人工智能崛起的背景下,全球各地科研機構及相關公司積極探索提高處理器算力的新方法,神經擬態處理器即是一種創新嘗試。
    的頭像 發表于 06-07 15:35 ?974次閱讀