女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

安霸生成式AI芯片解決方案助力本地處理大型語言模型

Ambarella安霸半導(dǎo)體 ? 來源:Ambarella安霸半導(dǎo)體 ? 2024-06-26 11:32 ? 次閱讀

具有高AI性能和效率的最新SoC系統(tǒng)助力本地處理大型語言模型

隨著 AI 技術(shù)的不斷進步,十年前還只能在書本和科幻電影中看到的功能,如今隨處可見。然而,迄今為止,對性能有著高要求的最新生成式 AI 技術(shù)應(yīng)用通常只能運行在云端。

直到最近,生成式 AI 的主要應(yīng)用還是倚靠耗電量巨大的服務(wù)器,這些服務(wù)器的任務(wù)本是開發(fā)和訓(xùn)練大型語言模型(LLM)。LLM 的出現(xiàn)本身就是一項突破,它只是邁出了一系列重要變革中的第一步。

目前,人們非常關(guān)注并推動著端側(cè)大模型技術(shù)的廣泛發(fā)展,因為該技術(shù)將使生成式 AI 能夠部署到更多應(yīng)用中,獲益良多。具體來說,這些用例將大大增加生成式 AI 在智能城市、工業(yè)自動化機器人和智能駕駛等市場的端側(cè)設(shè)備中的廣泛應(yīng)用。

生成式 AI 要在前端領(lǐng)域取得成功,需要注意四要素:AI 的隱私、性能,能效和高生產(chǎn)率,這些因素決定了市場轉(zhuǎn)化的速度。

前端集成也有能源效率、設(shè)備微調(diào)和可靠性方面的技術(shù)挑戰(zhàn)。這些問題本身就很棘手,因此向開發(fā)人員提供的解決方案須兼顧性能和成本,才能克服這些障礙。

為了應(yīng)對這些相互沖突的挑戰(zhàn),定制化的芯片成為首選解決方案。

生成式AI的高能效SoC

安霸觀察到前端應(yīng)用對高能效 AI 處理器的需求,因此推出了一系列 AI SoC,適用于各種前端的生成式 AI 應(yīng)用。

在大多數(shù)用于前端應(yīng)用的高性能多模式分析用例中,第一步通常是在所有照明條件下捕獲高質(zhì)量視頻。為此,需要一個即使在低光照條件下也能提供出色圖像質(zhì)量的圖像信號處理器(ISP)。同樣,高對比度場景的捕捉也必須使用具有先進的高動態(tài)范圍(HDR)能力的處理器,這樣才能捕捉到非常清晰的細節(jié),為安防視頻分析、自主移動機器人(AMR)和智能駕駛感知算法提供高品質(zhì)的圖像輸入,從而得到通用的解決方案。此外,通過高效的視頻編碼技術(shù),安霸的 SoC 還能以極低的碼率傳輸高分辨率的視頻流。

安霸 SoC 中的專有 CVflow AI 引擎,除了支持 LLM 處理外,還支持同時運行多個神經(jīng)網(wǎng)絡(luò)(NN),在運行各類計算機視覺算法時維持低功耗。安霸的 Cooper 開發(fā)者平臺包含一套功能豐富的工具,使得客戶很方便地把在PC上開發(fā)的神經(jīng)網(wǎng)絡(luò)移植到安霸芯片平臺。

安霸的生成式 AI 芯片解決方案在模型的參數(shù)上具備高擴展性,從支持多達 340 億個參數(shù)的多模態(tài) LLM 的 N1 系列,到支持多達 30 億個參數(shù)的較小視覺語言模型 (VLM) 的 CV7 系列。

如果你的應(yīng)用需要超強的前端處理能力,那么安霸的旗艦款 N1 系列 SoC 是最佳選擇之一。N1 可以接收多個高分辨率攝像頭數(shù)據(jù)流輸入,同時運行多達 340 億個參數(shù)的多模態(tài) LLM,并且支持連接更多的外圍設(shè)備。N1 芯片集成了神經(jīng)向量處理器 (NVP)、高級圖像信號處理器(ISP)、16 個 Arm Cortex-A78AE CPU, 以及用于 3D 用戶界面的 GPU,單顆芯片可提供高性能神經(jīng)網(wǎng)絡(luò)計算。不僅性能卓越,N1 芯片的每次推理功耗僅為業(yè)界領(lǐng)先 GPU 解決方案的一小部分。

N1 芯片非常適合為多種應(yīng)用提供生成式 AI,包括工業(yè)機器人、智慧城市、智能醫(yī)療成像和診斷、多攝像頭 AI 處理中心、運行多模態(tài) LLM 的終端 AI 服務(wù)器以及智駕車隊遠程信息處理等。設(shè)備端通過運行多模態(tài) LLM 促進了 生成式 AI 功能的實現(xiàn),例如對視頻和圖像輸入進行智能上下文搜索;使用自然語言命令控制機器人;以及多才多藝的 AI 助手,比如代碼、文本和圖像的生成等。

雖然這些系統(tǒng)多種多樣,但它們在很大程度上都依賴于攝像頭和自然語言理解的結(jié)合。在這種情況下,設(shè)備端的生成式 AI 處理可提高運行速度和增強隱私保護,同時降低總成本。本地處理也是特定應(yīng)用大語言模型處理的理想選擇,這些大語言模型通常在前端針對每個用例進行微調(diào),而不是采用服務(wù)器方法,即使用更大、功耗更高的大語言模型來覆蓋所有用例。

N1 系列芯片基于安霸功能強大的第三代 CVFlow 架構(gòu)設(shè)計,因此具有出色的網(wǎng)絡(luò)推理性能,廣泛兼容各類神經(jīng)網(wǎng)絡(luò),包括多模態(tài)大模型。例如,N1 SoC 在單流模式下以低于 50 瓦的功耗運行 Llama2-13B,每秒可推理 25 個 token。結(jié)合預(yù)移植模型的易集成性,這一新型解決方案可幫助設(shè)備制造商快速將生成式 AI 部署到任何對功耗敏感的應(yīng)用中,如 AI 智能盒子、送貨機器人等產(chǎn)品。

第四要素-生產(chǎn)率

Cooper 是安霸自研的開發(fā)者平臺,提供靈活的模塊化開發(fā)環(huán)境,可與安霸任何 AI SoC(包括 CV2,CV5, CV7 系列和 N1 系列)配合使用。它因強調(diào)合作而得名,適用于各種應(yīng)用,包括機器人、AIoT、汽車和消費類視頻設(shè)備。

是圍繞一個名為 Cooper Foundry 的軟件平臺構(gòu)建的,該開發(fā)平臺由以下四個軟件模塊組成:

Cooper Core 核心組件:包含基于 Linux操作系統(tǒng)、編譯器和 SDK。

Cooper Foundation AI 應(yīng)用組件:用于在前端構(gòu)建和部署 ML 應(yīng)用程序

Cooper Vision 視覺感知組件:包含多模態(tài)傳感器處理和融合的構(gòu)建模塊

Cooper UX 應(yīng)用交互組件:用于分析和開發(fā)

全面的 Cooper 開發(fā)平臺加快了產(chǎn)品上市速度

該開發(fā)平臺在 Cooper Metal 上運行。Cooper Metal 是一套硬件參考板,包括高能效 AI SoC、開發(fā)套件和模塊,它還集成了常見的第三方開源軟件工具。

為了展示這些功能,安霸利用其最新的 AI SoC 在 Cooper 上開發(fā)了一個演示系統(tǒng)。其中,安霸將業(yè)界領(lǐng)先的具有 AI 功能的 ISP 與多模態(tài)視覺語言模型相融合,后者還考慮到了視頻幀中的圖像數(shù)據(jù)。

作為向開發(fā)人員提供的單獨演示的一部分,安霸使用 N1 SoC 建立了一個系統(tǒng),支持處理多達 16 個視頻流。它允許用戶使用自然語言搜索任何異?;虿粚こJ录纳舷挛模踔了阉魈囟ǖ膬?nèi)容,如特定品牌或型號的汽車。

在 CV7 系列 SoC 的基礎(chǔ)上,可以更低功耗構(gòu)建具有 1-4 個視頻流小型系統(tǒng)。這些系統(tǒng)可運行“CLIP”等視覺語言模型,整個系統(tǒng)的功耗低于 5W。

總結(jié)

生成式 AI 是一項變革性技術(shù),由于其處理過程通常在 GPU 上,消耗大量電能,它曾一度被局限于成本高昂的服務(wù)器中?;诎舶愿咝У?AI SoC 搭建的端側(cè) LLM 推理設(shè)備,其每次AI推理所需的功耗極低,領(lǐng)先行業(yè)。安霸 N1 SoC 將生成式 AI 引入終端設(shè)備和可內(nèi)部部署的硬件,應(yīng)用范圍更加廣泛,例如安防視頻分析、機器人技術(shù)和眾多工業(yè)自動化需求。此外,與 GPU 及其他 AI 加速器相比,安霸提供了完整的 SoC 和系統(tǒng)解決方案,每生成一個 token 的能效比大幅提升,可達 3 倍,并可快捷、低成本地部署。

原文標(biāo)題:生成式AI賦能前端,未來已來

文章出處:【微信公眾號:Ambarella安霸半導(dǎo)體】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • soc
    soc
    +關(guān)注

    關(guān)注

    38

    文章

    4318

    瀏覽量

    221473
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    33973

    瀏覽量

    274879
  • 安霸
    +關(guān)注

    關(guān)注

    3

    文章

    47

    瀏覽量

    13166

原文標(biāo)題:生成式AI賦能前端,未來已來

文章出處:【微信號:AMBARELLA_AMBA,微信公眾號:Ambarella安霸半導(dǎo)體】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    大算力AI芯片接入DeepSeek R1

    (Ambarela)在人工智能領(lǐng)域持續(xù)發(fā)力,已成功在多款 AI 芯片,包括 N 系列大算力 AI
    的頭像 發(fā)表于 02-17 13:36 ?421次閱讀

    聚云科技榮獲亞馬遜云科技生成AI能力認(rèn)證

    Bedrock等技術(shù),從應(yīng)用范圍、模型選擇、數(shù)據(jù)處理模型調(diào)優(yōu)到應(yīng)用集成與部署等方面,助力企業(yè)加速生成
    的頭像 發(fā)表于 02-14 16:07 ?309次閱讀

    聚云科技榮獲亞馬遜云科技生成AI能力認(rèn)證 助力企業(yè)加速生成AI應(yīng)用落地

    、數(shù)據(jù)處理模型調(diào)優(yōu)到應(yīng)用集成與部署等方面,助力企業(yè)加速生成AI應(yīng)用落地。此外,聚云科技還基于
    發(fā)表于 02-14 13:41 ?120次閱讀

    一文詳解視覺語言模型

    視覺語言模型(VLM)是一種多模態(tài)、生成 AI 模型,能夠理解和
    的頭像 發(fā)表于 02-12 11:13 ?1397次閱讀
    一文詳解視覺<b class='flag-5'>語言</b><b class='flag-5'>模型</b>

    廣和通正式推出AI玩具大模型解決方案

    ,即可實現(xiàn)音視頻及圖像的實時傳輸、語音識別、自然語言處理以及機器學(xué)習(xí)等多種功能。這意味著玩具能夠與用戶進行更加豐富的互動,通過擬人、擬動物或擬IP的形式,以視、聽、觸等多維度的方式與用戶進行交流。 廣和通的AI玩具大
    的頭像 發(fā)表于 01-24 10:36 ?1018次閱讀

    廣和通發(fā)布AI玩具大模型解決方案

    近日,廣和通推出了一項專為AI玩具設(shè)計的創(chuàng)新解決方案——AI玩具大模型解決方案。該方案深度融合了
    的頭像 發(fā)表于 01-21 14:45 ?1033次閱讀

    廣和通AI解決方案內(nèi)置大模型,讓玩具成為你的智慧伙伴

    廣和通推出AI玩具大模型解決方案,該方案深度融合豆包等AI模型、內(nèi)置廣和通Cat.1模組,
    的頭像 發(fā)表于 01-21 11:03 ?477次閱讀
    廣和通<b class='flag-5'>AI</b><b class='flag-5'>解決方案</b>內(nèi)置大<b class='flag-5'>模型</b>,讓玩具成為你的智慧伙伴

    廣和通推出AI玩具大模型解決方案

    廣和通推出AI玩具大模型解決方案,該方案深度融合豆包等AI模型、內(nèi)置廣和通Cat.1模組,
    的頭像 發(fā)表于 01-21 10:27 ?614次閱讀

    發(fā)布N1-655前端生成AI芯片

    Ambarella(下稱“”,納斯達克股票代碼:AMBA,AI 視覺感知芯片公司)在 CES 上發(fā)布了 N1-655 前端生成
    的頭像 發(fā)表于 01-09 10:29 ?603次閱讀

    NaVILA:加州大學(xué)與英偉達聯(lián)合發(fā)布新型視覺語言模型

    (VLM)是一種具備多模態(tài)生成能力的先進AI模型。它能夠智能地處理文本、圖像以及視頻等多種提示,并通過復(fù)雜的推理過程,實現(xiàn)對這些信息的準(zhǔn)確理解和應(yīng)用。NaVILA正是基于這一原理,通過
    的頭像 發(fā)表于 12-13 10:51 ?566次閱讀

    LG與攜手推動 AI 艙內(nèi)安全解決方案的發(fā)展

    電子展(CES 2025)期間展示其與合作開發(fā)的最新艙內(nèi)智能監(jiān)測解決方案。與 LG 緊密合作,將 CV25
    的頭像 發(fā)表于 12-05 09:27 ?955次閱讀
    LG與<b class='flag-5'>安</b><b class='flag-5'>霸</b>攜手推動 <b class='flag-5'>AI</b> 艙內(nèi)安全<b class='flag-5'>解決方案</b>的發(fā)展

    語言模型優(yōu)化生成管理方法

    語言模型的優(yōu)化生成管理是一個系統(tǒng)工程,涉及模型架構(gòu)、數(shù)據(jù)處理、內(nèi)容控制、實時響應(yīng)以及倫理監(jiān)管等多個層面。以下,是對大
    的頭像 發(fā)表于 12-02 10:45 ?313次閱讀

    NVIDIA助力Amdocs打造生成AI智能體

    正在使用NVIDIA DGX Cloud 與 NVIDIA AI Enterprise軟件開發(fā)和交付基于商用大語言模型(LLM)和領(lǐng)域適配模型
    的頭像 發(fā)表于 11-19 14:48 ?740次閱讀

    AI模型在自然語言處理中的應(yīng)用

    AI模型在自然語言處理(NLP)中的應(yīng)用廣泛且深入,其強大的語義理解和生成能力為NLP任務(wù)帶來了顯著的性能提升。以下是對
    的頭像 發(fā)表于 10-23 14:38 ?1226次閱讀

    llm模型本地部署有用嗎

    在當(dāng)今的人工智能領(lǐng)域,LLM(Large Language Model,大型語言模型)已經(jīng)成為了一種非常受歡迎的技術(shù)。它們在自然語言處理(N
    的頭像 發(fā)表于 07-09 10:14 ?1095次閱讀