近年來,由于大數據產業的發展,數據量呈現爆炸性增長態勢,而傳統的計算架構又無法支撐深度學習的大規模并行計算需求,于是研究界對人工智能芯片進行了新一輪的技術研發與應用研究。人工智能芯片作為終端實現人工智能算法的載體,是實現人工智能技術創新的重要基礎;同時,作為人工智能時代的技術核心之一,決定了平臺的基礎架構和發展生態。
2018年12月,Gartner發布了《預測2019:人工智能與未來工作》報告,對人工智能科技未來七大發展趨勢及其對工作的影響進行分析探討,人工智能芯片位列其中。人工智能芯片作為當前衡量一個國家科技發展水平及實力的重要參考標準,一直以來都受到了廣泛的關注。以谷歌、微軟、英特爾、臉書為代表的科技巨頭爭相加大在人工智能芯片領域的布局。截至2018年5月,全球至少有60家初創公司在研發語音交互和自動駕駛人工智能芯片、至少有5家企業已經獲得超過1億美元的融資;根據國際權威基金評級機構Morningstar預測,到2021年,全球人工智能芯片市場規模可能超過200億美元。
1
人工智能技術催動芯片市場爆發
當前正處于“后摩爾定律時代”,萬物互聯和萬物智能得以實現,核心推動力量來自半導體產業,數百億智能設備連接網絡,用于數據采集的物聯網芯片和高性能人工智能芯片需求劇增,因萬物互聯采集海量數據,經數據中心構造的云端對數據進行處理,從而帶動整個半導體發展。伴隨著大數據的發展,計算能力的提升,人工智能近年迎來了新一輪的爆發。谷歌、臉書、微軟、亞馬遜等國外各大科技巨頭公司已紛紛推出了自己的人工智能芯片,預計2020年有望突破百億大關,發展空間巨大。而各科技巨頭司都在探索不同類型的人工智能芯片專用架構:谷歌擁有張量處理單元(TPU),每個芯片具備一個核心和用軟件控制的內存(而非緩存);英偉達的GPU則擁有80多個內核;微軟正在走FPGA的路線;英特爾則在所有類型的人工智能芯片專用架構上都有布局,為機器學習推銷傳統的CPU,收購Altera和Nervana,前者專注于FPAG,后者專注于神經網絡專用處理器(類似于谷歌的TPU),當前已經進入計算系統結構的黃金時代。2018年,幾乎每個月,主流科技公司推出的定制人工智能芯片項目數量都會較上個月有所增加。
(1)英特爾方面,在芯片產業布局上,英特爾在2018年進行了一系列收購,加速開發更新型的芯片。2018年7月,英特爾收購物聯網芯片組廠商eASIC;2018年9月,英特爾收購NetSpeed Systems,繼續布局專用片上系統(SoC)芯片產業。英特爾正在開發越來越多樣化的SoC芯片產品,包括各種專用SoC,如Movidius VPU和FPGA。此外,英特爾在2018年展示了首款14納米獨立GPU原型,并確認其首款獨立GPU最早將于2020年問世。
(2)谷歌方面,2018年2月,谷歌開放CloudTPU,專為加速、擴展特定的TensorFlow機器學習工作負載而優化。2018年5月,在GoogleI/O2018開發者大會期間,谷歌正式發布了第三代人工智能學習專用處理器TPU3.0。TPU3.0采用8位低精度計算以節省晶體管數量,對精度影響很小但可以大幅節約功耗、加快速度,同時還有脈動陣列設計,優化矩陣乘法與卷積運算,并使用更大的片上內存,減少對系統內存的依賴;速度能加快到最高每秒1000萬億次浮點計算。
(3)英偉達方面,2018年3月,英偉達推出了一個更新的、全面優化的軟件堆棧,還公布了其全球領先的深度學習計算平臺所取得的一系列重要進展,包括NVIDIA Tesla V100(宣稱是最強大的數據中心GPU)的2倍內存提升,以及革命性的全新GPU互聯結構NVIDIA NVSwitch,它可使多達16個Tesla V100 GPU同時以2.4 TB /秒的速度進行通信,這一速度創下歷史新高(相較于半年前發布的上一代產品,其深度學習工作負載性能實現了10倍提升)。
(4)超威半導體(AMD)方面,2018年6月,AMD公開展示了全球首款7納米制程的GPU芯片原型,含有32GB的高帶寬內存,專為人工智能和深度學習設計,用于工作站和服務器;2018年11月,AMD發布了基于7納米工藝的升級版Vega架構核心,也是全球首個7納米GPU。7納米Vega核心集成了132億個晶體管,比14納米Vega(125億個晶體管)增加了6.4%,而核心面積為331平方毫米,比現在的484平方毫米縮小了31.6%,晶體管密度翻了一番。同等功耗下,新核心性能提升超過25%;而同等頻率下,新核心功耗降低50%。
(5)蘋果方面,蘋果公司在2018年9月發布的新款iPhone系列手機均搭載了A12仿生芯片。A12仿生芯片由4核GPU、6核CPU和神經網絡引擎構成,內有69億個晶體管,性能非常卓越,被認為是當時“智能手機中最智能、功能最強大的芯片”,其每秒運算數據達到了5萬億次,比2017年推出的A11提高733%,新的iPhone機器學習速度提升了9倍。
(6)國際商用機器(IBM)公司方面,2018年6月,IBM Research 人工智能團隊利用大規模的模擬存儲器陣列訓練深度神經網絡,達到了與GPU相當的精度,被認為是在下一次人工智能突破所需要的硬件加速器發展道路上邁出的重要一步,相關成果發表在《自然(Nature)》期刊上。
2
“邊緣側智能”發力,人工智能芯片與物聯網的緊密結合成為亮點
2018年12月,Gartner發布的《預測2019:人工智能與未來工作》報告重點提及“邊緣計算(EdgeComputing)”的潛力與應用價值。近年來,計算工作負載一直在遷移:首先是從本地數據中心遷移到云,現在越來越多地從云數據中心遷移到更靠近正在處理的數據源的“邊緣”位置,旨在通過縮短數據傳輸距離來提高應用和服務的性能和可靠性,降低運行成本,從而減少帶寬和延遲問題。Gartner數據顯示,到2025年,80%的企業將關閉其傳統數據中心,而2018年則為10%;MarketsandMarkets數據顯示,到2022年,邊緣計算市場的價值將達到67.2億美元,高于2017年的14.7億美元,年復合增長率35.4%,關鍵驅動因素是物聯網和5G網絡的出現,“智能”芯片性能提升、“智能”應用程序數量的增加以及云基礎架構負載的增加。
隨著人工智能應用的不斷擴展,定位于數據中心(或稱“云端”)的人工智能應用普遍存在功耗高、實時性低、帶寬不足、數據傳輸過程安全性較低等問題。預計,未來會有更多人工智能芯片部署于網絡“邊緣側”。“邊緣側智能”專指靠近智能終端以及數據源頭的網絡邊緣側,融合了網絡、計算、存儲、應用的開放計算平臺,已經成為人工智能芯片的重要發展趨勢。
谷歌的人工智能布局正逐漸走向邊緣測。在2018年7月舉行的谷歌云端服務年會Google Cloud Next上,谷歌發布一款名為“Edge TPU”的人工智能芯片,作為小型人工智能加速器(體積僅為一美分硬幣的1/6),可在物聯網(IoT)設備中實現機器學習算法的訓練任務,這款芯片將為邊緣設備提供強大的計算和學習能力,已成為谷歌邊緣計算戰略的重要組成部分;同時,發布Cloud IoT Edge,這是一款能夠將Google的云服務擴展到物聯網網關和邊緣設備的軟件堆棧。2018年11月,英偉達公開了NVIDIA Jetson AGX Xavier機器人專用芯片平臺、面向邊緣計算的DRIVE AGX Xavier汽車級人工智能芯片等,致力于邊緣側數據感知、匯聚和推演,并基于這些芯片和平臺開始向公司提供企業級解決方案,正在逐步從芯片制造商轉變為方案提供商的角色。
人工智能芯片將繼續在物聯網領域扮演更重要的角色。相比于數據中心的人工智能加速器,位于“邊緣側”智能終端中的人工智能芯片需要更低的延遲性、更低的能耗、更小的體積和更低的成本;其算法要相對成熟,無需進行頻繁的迭代更新。目前,越來越多的硬件廠商開始提供邊緣處理的強化產品,例如邊緣服務器、智能網關等產品。
3
各大芯片制造商在人工智能領域垂直領域的實踐深化
各大芯片制造商除了在單純的研發層面需要更有針對性地進行技術攻堅之外,在整個芯片領域和產業的應用、行業化縱深發展等配套層面也積極快速進行探索和發展,推進應用更加“落地”,推動人工智能芯片產品更加實用化。2018年,人工智能芯片領域的重大進展之一體現在各大人工智能芯片制造商立足于解決實際問題,在人工智能領域的實踐正在不斷深化。
在2018年11月舉行的2018英特爾人工智能大會上,英特爾發布了英特爾神經計算棒二代(英特爾NCS 2),利用該計算棒可以在網絡邊緣構建更智能的人工智能算法和計算機視覺原型設備。英特爾NCS 2基于英特爾 Movidius Myriad X視覺處理單元(VPU),并得到英特爾 OpenVINO工具包的支持,與上一代神經計算棒相比性能更優,能夠以可負擔的成本加快深度神經網絡推理應用的開發。英特爾NCS 2支持深度神經網絡測試、調整和原型制作,可以幫助開發者進入實際應用的量產階段。2018年11月,英特爾牽頭的聯合研發團隊開發的野外智能相機搭載了Movidius人工智能視覺處理芯片,可完成東北虎及有蹄類動物識別,以及人類識別(用于反盜獵)等多重識別任務。
2018年,雖然高通收購恩智浦以失敗結尾,但這筆收購案凸顯高通的意圖就是出自于拓展汽車芯片市場,智能汽車芯片的重要性也得以突顯。2018年8月,特斯拉宣布獨立開發的人工智能芯片已經準備就緒。2018年11月,早就成為特斯拉、沃爾沃供應商的英偉達發布了DRIVE AGX Xavier汽車級芯片。芯片的市場已經由PC、移動互聯網時代開始走向“智能汽車”時代。
4
淺析人工智能芯片的發展趨勢
作為人工智能技術的重要物理基礎,人工智能芯片擁有巨大的產業價值和戰略地位。人工智能芯片研發的核心在于芯片架構以及“感知-傳輸-處理/執行”全流程邏輯的研發:短期內以異構計算(多類型組合方式)為主,來加速各類應用算法的落地;中期側重發展自重構、自學習、自適應的芯片,來支持算法的演進和類人(類腦)的自然智能;長期朝著“通用人工智能芯片”的方面發展。“通用人工智能芯片”是指能夠支持和加速通用人工智能計算的芯片,能夠讓系統通過學習和訓練,準確高效地處理任意智能主體(例如人)能夠處理的任務,其面臨通用性(算法和架構)和實現復雜度等兩個主要難點。
但從大趨勢來看,目前人工智能芯片發展尚處于的初級階段,無論是科研還是產業應用都有巨大的創新空間。目前主流人工智能芯片的核心主要是利用乘加計算加速陣列來實現對卷積神經網絡中最主要的卷積運算的加速。這一代人工智能芯片主要有如下三個方面的問題:(1)芯片功耗問題,內存大量訪問和乘加計算陣列的大量運算,造成人工智能芯片整體功耗的增加;(2)內存帶寬問題,基于深度學習的人工智能計算所需數據量巨大,造成內存帶寬成為整個系統的瓶頸,計算框架的高度并行與擴展成為亟待解決的關鍵問題;(3)性能和靈活度之間的平衡問題,深度學習對算力要求非常高,提升算力的最好方法是做硬件加速,但是同時深度學習算法的發展也是日新月異,新的算法可能在已經固化的硬件加速器上無法得到很好的支持。
因此,可以預見下一代人工智能芯片將有如下發展趨勢:(1)計算框架的高度并行與擴展;(2)更高效的大卷積解構與復用;(3)神經網絡參數/計算位寬的迅速減少;(4)更多樣的存儲器定制設計;(5)更稀疏的大規模向量實現;(6)復雜異構環境下計算效率提升;(5)計算和存儲一體化。
結束語
人工智能是目前研究的焦點,而為人工智能提供最底層硬件技術支持的芯片行業更是處于漩渦之中。隨著人工智能相關技術在近年來的跨越式發展,人們越來越看好人工智能的前景及其潛在的爆發力,而能否發展出具有超高運算能力且符合市場的人工智能芯片成為人工智能平臺的關鍵一役。英偉達在目前的市場上保持著絕對的領先地位,但隨著包括谷歌、臉書、微軟、亞馬遜等眾多科技巨頭公司相繼加入決戰,人工智能芯片領域未來的格局如何,仍然待解。
-
芯片
+關注
關注
459文章
52253瀏覽量
436923 -
人工智能
+關注
關注
1804文章
48786瀏覽量
246897
原文標題:2018年國外人工智能芯片發展綜述
文章出處:【微信號:drc_iite,微信公眾號:全球技術地圖】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
【「芯片通識課:一本書讀懂芯片技術」閱讀體驗】從deepseek看今天芯片發展
人工智能發展需要新的芯片技術

評論