深度學習算法正被用于訓練卷積神經網絡(CNN),以實現更智能的移動設備,這很可能需要一種新的方法來處理架構。但與此同時,巧妙地利用當前的技術可能有助于我們進一步走上真正的認知設備之路,這些設備能夠完全重新定義用戶體驗。
英偉達將在三月份的GPU技術大會上使用汽車和高級駕駛員輔助系統(ADAS)作為應用程序的焦點,并完成了埃隆·馬斯克(Elon Musk)的討論和評論,以表明自動駕駛汽車幾乎是一個已解決的問題。然而,隨著時間的流逝,以及一些調整和改進 - 著眼于超低功耗 - 我看到了許多技術和應用,從無處不在的3D傳感,3D跟蹤,甚至視覺搜索,迅速進入智能手機以及供電和電池驅動的嵌入式系統。
再加上用于運動和音頻的傳感器、快速的內存訪問以及高能效的數據處理方法,這些系統可以真正實現“認知”,甚至可能在不久的將來為支持人工智能的移動設備形成一個平臺。與此同時,重要的是要優化當前的架構,以實現“智能視覺”功能,如3D深度映射和感知、對象識別和增強現實,以及核心計算攝影功能,如變焦、HDR、圖像重新聚焦和低光圖像增強。
后一種功能模糊了計算機視覺和圖像處理之間的區別,因為許多成像和圖像增強功能都使用計算機視覺技術。最簡單的例子是多幀圖像增強功能,如HDR,變焦和重新對焦,您可以在其中拍攝多個連續圖像,然后將它們融合在一起以獲得更高質量的圖像。
雖然我們稱之為“圖像增強”,但涉及許多計算機視覺來“注冊”圖像,這涉及將兩個或三個幀相互匹配。該基本功能現在被認為是理所當然的,但需要大量的處理馬力。而這種對集中、密集的數字信號處理(DSP)的要求只會增加。
高通公司在Uplinq 2013上發表的一篇論文中很好地繪制了各種視覺處理功能的像素功率和時間關系。如圖所示,這些圖基于三個處理器:一個運行頻率為 1.2 GHz 的單核 CPU、一個四核 CPU 和一個運行頻率為 690 MHz 的 DSP。
圖 1:繪制各種處理器的每像素能量與每像素時間的關系圖顯示了 DSP 與 CPU 一起進行視覺處理的優勢。為了優化功耗和功能,CPU、DSP 和 GPU 的組合可能是最佳的整體方法。(單擊以縮放)
該圖顯示,以略高于CPU時鐘頻率的一半運行的DSP可以在圖像上獲得相同的結果,從而獲得潛在的性能增益,同時進一步節省功耗(功率=電容x電壓)2x 頻率,或 P=CV2斷續器)。
然而,隨著我們在移動平臺上執行類似人類的視覺、人工智能和增強現實應用,可能需要重新思考處理架構。結合傳感器融合和先進的深度學習算法(如CNN),這些高度先進和數學密集型應用程序將提供更具環境和上下文感知的用戶體驗,但將迫使在電池壽命方面進行權衡。
設計人員面臨的挑戰是啟用這個認知設備的新世界,同時保持可接受的電池壽命。有幾種方法可以實現此目的。例如,CPU可以由高通或英偉達的GPU支持。這已經在許多智能手機中實施。然而,對越來越低功耗的不妥協需求表明,可以將特定的處理密集型功能分配給視覺優化的DSP內核。采用這種方法可以放棄功耗 9 倍的改進與當今的高級 GPU 集群相比,同時運行對象識別和跟蹤。
即使有這種程度的節能,移動設備也不太可能很快使用面部識別執行人群搜索,因為它的處理成本太高。但是,低功耗處理內核和優化架構的可用性增加了樂觀情緒,并且正在取得扎實的進展。這種進步是《麻省理工學院技術評論》將深度學習列為2013年10項技術突破之一的原因之一。并在GTC上進行了演示,并在微軟,百度和Cognivue等公司的其他研究中進行了演示,從那時起發生了很多事情。
雖然處理架構和低功耗處理至關重要,但可以合理地假設,隨著云連接變得越來越普遍和更快,我們應該為云分配盡可能多的處理開銷。同樣,它歸結為智能分區。在云中做最好在云中做的事,然后在移動設備上,盡可能高效地構建功能分配,例如使用CPU在GPU和DSP之間分配負載。或者正如高通公司所說,利用正確的引擎來完成正確的任務。
審核編輯:郭婷
-
神經網絡
+關注
關注
42文章
4814瀏覽量
103609 -
AI
+關注
關注
88文章
35148瀏覽量
279835
發布評論請先 登錄
信而泰×DeepSeek:AI推理引擎驅動網絡智能診斷邁向 “自愈”時代
Arm 與微軟合作,為基于 Arm 架構的 PC 和移動設備應用提供超強 AI 體驗

評論