女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

混合方案部署AI / ML并為其提供合理的布線方案

牽手一起夢 ? 來源:網(wǎng)絡(luò)整理 ? 作者:佚名 ? 2020-04-03 15:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在本文中,康寧光通信與達(dá)拉斯的Citadel Analytics展開了合作,而后者一直在托管數(shù)據(jù)中心(MTDC)中部署AI平臺。

在互聯(lián)網(wǎng)上通常有這樣的一句話:“知識告訴你說應(yīng)該把雞蛋放進(jìn)籃子,智慧則是叫你不要把所有雞蛋都放進(jìn)一個(gè)籃子” 。機(jī)器學(xué)習(xí)(ML)會引導(dǎo)我們認(rèn)識雞蛋并放進(jìn)籃子,但是人工智能(AI)建議我們不要將其放入一個(gè)籃子。

撇開笑話而言,從語言翻譯到對復(fù)雜疾病的診斷,AI和ML的應(yīng)用非常廣泛,遠(yuǎn)遠(yuǎn)不止于視覺領(lǐng)域。 為了讓您了解AI和ML需要多少計(jì)算能力,百度在2017年展示了一種中文語音識別模型,在整個(gè)訓(xùn)練周期內(nèi),不僅需要4TB的培訓(xùn)數(shù)據(jù),而且還需要2000億億次的運(yùn)算。

我們需要把握一個(gè)平衡點(diǎn),那就是既要滿足AI和ML需求,還需要以最低的成本提供最高的服務(wù)質(zhì)量。那么如何提供最高的服務(wù)質(zhì)量呢?通過減少數(shù)據(jù)在終端設(shè)備和處理器之間傳輸?shù)奈锢砭嚯x,以改善延遲對傳輸?shù)挠绊憽N覀兛梢园堰吘墧?shù)據(jù)中心建設(shè)在更靠近創(chuàng)建和使用數(shù)據(jù)的地方,這樣可以優(yōu)化傳輸成本和服務(wù)質(zhì)量。其次是尋求最低的成本。傳輸成本會隨著傳輸?shù)臄?shù)據(jù)量、距離或“跳數(shù)”的增加而增加。 而AI和ML大大增加了傳輸?shù)臄?shù)據(jù)量,從而導(dǎo)致更高的傳輸成本。邊緣數(shù)據(jù)中心靠近數(shù)據(jù)創(chuàng)建的地方,因此日益成為重要的解決方案,而一大部分邊緣計(jì)算都部署在MTDC中。MTDC可以提供最低的本地?cái)?shù)據(jù)中心部署風(fēng)險(xiǎn),而且可以最快實(shí)現(xiàn)收益。

什么是AI、ML、MTDC?

在討論AI,ML,邊緣數(shù)據(jù)中心和MTDC之前,有必要仔細(xì)研究一下它們的概念,以確保每個(gè)人都在同一個(gè)理解層面上。

人工智能是計(jì)算機(jī)系統(tǒng)理論的延伸發(fā)展,它能夠執(zhí)行通常需要人類執(zhí)行的智能任務(wù),例如視覺感知,語音識別,決策和語言之間的翻譯。如果利用玩具套娃來描述這些關(guān)系,那么 AI是最大的那個(gè)套娃,機(jī)器學(xué)習(xí)位于其中,而深度學(xué)習(xí)則位于機(jī)器學(xué)習(xí)套娃中。機(jī)器學(xué)習(xí)是AI的一種應(yīng)用,它使系統(tǒng)能夠自動學(xué)習(xí)并從經(jīng)驗(yàn)中進(jìn)行改進(jìn),而無需進(jìn)行編程

邊緣數(shù)據(jù)中心是通過從核心數(shù)據(jù)中心分散一些對延遲較敏感的應(yīng)用程序,使數(shù)據(jù)中心的計(jì)算和處理能力更接近創(chuàng)建數(shù)據(jù)的地方。

多租戶數(shù)據(jù)中心(MTDC)也稱為托管數(shù)據(jù)中心,用戶可以通過租用空間來托管其設(shè)施。 MTDC提供了空間和網(wǎng)絡(luò)設(shè)備,以最小的成本將用戶連接到服務(wù)提供商。 用戶可以租用空間、服務(wù)器機(jī)架或完整的專用模塊,來滿足其各種需求。

AI有那么厲害?

AI和ML是自電力出現(xiàn)以來我們所見過的最具革命性的技術(shù)。 它比互聯(lián)網(wǎng)和移動革命的總和還要強(qiáng)大。 AI技術(shù)之所以如此強(qiáng)大和如此具有影響力,是因?yàn)樗鼈兛梢钥焖佟⒂行У乩斫獯罅繑?shù)據(jù)。 我們生活在一個(gè)數(shù)據(jù)不斷生成并且由數(shù)據(jù)驅(qū)動的世界中(市場分析師預(yù)測,如今存在的數(shù)據(jù)中有80%以上是在最近兩年內(nèi)創(chuàng)建的),如果沒有能夠理解這些數(shù)據(jù)的工具,我們將會淹沒在這些數(shù)據(jù)中。

舉個(gè)簡單的例子,今年全世界將創(chuàng)造大約40兆字節(jié)的信息。 那就是40萬億GB的信息。 人類無法理解所有這些信息,即使每個(gè)人晝夜不停地工作,從理論上講也是不可能的。

那么我們?nèi)绾卫斫馑羞@些數(shù)據(jù)呢? 答案是使用AI和ML。 這些技術(shù)偏愛數(shù)據(jù),數(shù)據(jù)就像是它們的氧氣。 通過使用功能強(qiáng)大且經(jīng)過適當(dāng)培訓(xùn)的AI / ML模型,我們可以準(zhǔn)確地處理大量信息,從而揭示非常有價(jià)值的數(shù)據(jù)來指導(dǎo)我們的行動。

核磁共振(MRI)的ML模型就是一個(gè)很好的例子。 他們針對已知的癌癥或非癌癥結(jié)果進(jìn)行了測試(陽性和陰性結(jié)果), 這個(gè)過程被稱為訓(xùn)練。之后將一組新的MRI加載到經(jīng)過訓(xùn)練的模型中并進(jìn)行分析。這些新的MRI被稱為驗(yàn)證數(shù)據(jù)集。 該數(shù)據(jù)通過已經(jīng)訓(xùn)練有素的模型運(yùn)行,計(jì)算并顯示結(jié)果,然后再根據(jù)為該模型選擇的性能指標(biāo)評估結(jié)果。 如果結(jié)果可接受,則對模型進(jìn)行培訓(xùn),并準(zhǔn)備進(jìn)行更多測試和驗(yàn)證。 如果驗(yàn)證數(shù)據(jù)不符合指標(biāo),則我們回過頭來,要么重新設(shè)計(jì)模型,要么為它提供更多數(shù)據(jù),以便為下一次驗(yàn)證測試提供更好的培訓(xùn)。 此階段稱為驗(yàn)證階段。

人工智能的好處有時(shí)會帶來額外的驚喜。 例如,Citadel Analytics處理過的大多數(shù)業(yè)務(wù)都是客戶期望通過AI技術(shù)提高效率來實(shí)現(xiàn)銷售增長或降低成本。但他們很快發(fā)現(xiàn),通過AI可以大大提高員工的工作效率和愉悅性,最大的受益者居然是員工。一家懂得利用AI / ML的公司,其員工往往也對工作更加滿意,這一點(diǎn)比不使用AI的公司高得多。

這很有意義,因?yàn)锳I / ML就是要使“無聊”的東西自動化,并讓您的員工在不降低效率的情況下做他們擅長和充滿熱情的事情。 使用AI技術(shù)帶來的巨大好處是,使員工擁有更多快樂,并減少員工的流失。但是這一點(diǎn)許多企業(yè)一開始并不重視。

如何部署AI / ML并為其提供合理的布線方案

AI需要巨大的處理能力,這一直是一個(gè)問題。值得慶幸的是,像NVIDIA,IntelAMD等公司正在縮小處理能力的差距。 這使BMW,沃爾瑪,Target等公司以及更多公司都可以部署邊緣AI功能。 這需要以安裝功能強(qiáng)大的硬件為前提,這些硬件將使用預(yù)先訓(xùn)練的模型來處理本地?cái)?shù)據(jù)。 這大大減少了等待時(shí)間和對實(shí)時(shí)帶寬的需求。

但問題在于,沒有人能真正做到邊緣的AI / ML部署,因?yàn)殡m然硬件的預(yù)訓(xùn)練模型可以處理數(shù)據(jù),但它的能力不足以更新此模型,并使其功能更強(qiáng)大。

因此,混合方案便應(yīng)用而生。

在混合方案設(shè)計(jì)中,邊緣服務(wù)器將使用經(jīng)過訓(xùn)練的模型來處理所有本地?cái)?shù)據(jù)。 而這些“最適合的服務(wù)器”則可能位于不同的MTDC,從而實(shí)現(xiàn)網(wǎng)絡(luò)和應(yīng)用程序選擇的靈活性。MTDC的光網(wǎng)絡(luò)基礎(chǔ)架構(gòu)通常采用單模光纖來部署,目的是滿足最終用戶對未來擴(kuò)展的需求。 對于部署AI / ML的公司,重要的是需要同時(shí)考慮現(xiàn)在和未來網(wǎng)絡(luò)中的帶寬需求。 Citadel Analytics通常有一個(gè)經(jīng)驗(yàn)法則,即取期望帶寬的平均值并乘以4倍,就是應(yīng)該在其系統(tǒng)內(nèi)部署的帶寬。 在當(dāng)前的AI / ML部署中,帶寬尤其重要,是首要考量的因素。

帶寬的增加也凸顯了MTDC和最終用戶對高密度解決方案的需求。 高密度方案可以使MTDC空間實(shí)現(xiàn)最大化收益,而最終用戶可以更有效地利用他們投資的空間。由于基礎(chǔ)架構(gòu)會隨著不同用戶的需求而變化,因此尋找具有產(chǎn)品寬度(單模或多模,LC或MTP等)和擴(kuò)展靈活性的產(chǎn)品供應(yīng)商顯得尤為重要。對于最終用戶,降低成本的一種方法是增加密度并降低功耗。這可以通過并行光學(xué)器件和端口分離來實(shí)現(xiàn),即通過使用分支線纜來實(shí)現(xiàn)將一個(gè)高速帶寬端口分解為多個(gè)低帶寬端口。比如使用一個(gè)40g并行收發(fā)器端口分解為4個(gè)單獨(dú)的10g收發(fā)器端口,以實(shí)現(xiàn)高密度的線纜轉(zhuǎn)換。

通過減小10公里以內(nèi)的傳輸距離,通常可以將延遲減少45%。 這意味著什么?這將推動更多的和更小的區(qū)域性數(shù)據(jù)中心部署,使其更靠近產(chǎn)生數(shù)據(jù)的地方。 MTDC將成為這些較小數(shù)據(jù)中心的主要承載工具。 邊緣數(shù)據(jù)中心將托管在這些互連密集型MTDC中,兩者相互配合,為客戶提供更全面的服務(wù)。 擁有互聯(lián)的基礎(chǔ)設(shè)施、生態(tài)系統(tǒng)和豐富的客戶組合的MTDC,將能把握邊緣計(jì)算發(fā)展的商業(yè)機(jī)遇。

期望

AI和ML技術(shù)將持續(xù)為采用者創(chuàng)收和提高生產(chǎn)率。未來我們將看到更多公司將應(yīng)用程序運(yùn)行在邊緣MTDC。 對于這些公司而言,MTDC提供了較低的風(fēng)險(xiǎn)和較快的收益增長。 這將導(dǎo)致會出現(xiàn)更多的邊緣區(qū)域數(shù)據(jù)中心,而不是像我們以前看到的那樣集中的大型數(shù)據(jù)中心,同時(shí)也將帶來更多的互聯(lián)設(shè)施和更高密度的解決方案。

責(zé)任編輯:gt

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    19893

    瀏覽量

    235160
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35132

    瀏覽量

    279690
  • ML
    ML
    +關(guān)注

    關(guān)注

    0

    文章

    151

    瀏覽量

    35074
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    憶聯(lián) Docker+MySQL 流控方案:打造安全高效存儲底座,釋放 AI 極致性能

    ,在只讀、只寫和混合讀寫場景中,性能偏差分別控制在1%和2%以內(nèi)。該方案有效解決了傳統(tǒng)數(shù)據(jù)庫部署的靈活性不足問題,為AI應(yīng)用提供了高效穩(wěn)定的
    的頭像 發(fā)表于 06-26 13:53 ?100次閱讀
    憶聯(lián) Docker+MySQL 流控<b class='flag-5'>方案</b>:打造安全高效存儲底座,釋放 <b class='flag-5'>AI</b> 極致性能

    如何利用RAKsmart服務(wù)器實(shí)現(xiàn)高效多站點(diǎn)部署方案

    利用RAKsmart服務(wù)器實(shí)現(xiàn)高效多站點(diǎn)部署方案,需結(jié)合網(wǎng)絡(luò)優(yōu)勢、彈性資源管理和合理的架構(gòu)設(shè)計(jì)。以下是分步實(shí)施方案,涵蓋網(wǎng)絡(luò)優(yōu)化、資源分配
    的頭像 發(fā)表于 05-19 10:38 ?149次閱讀

    威盛電子推出重型機(jī)械AI監(jiān)控方案

    威盛電子宣布推出“威盛重型機(jī)械AI監(jiān)控方案”。該方案通過全景環(huán)視監(jiān)控、AI精準(zhǔn)防撞及云端數(shù)字化管理,為各種重型機(jī)械提供智能安全升級,目前已在
    的頭像 發(fā)表于 05-09 17:10 ?366次閱讀

    RK3588核心板在邊緣AI計(jì)算中的顛覆性優(yōu)勢與場景落地

    與低功耗。相比傳統(tǒng)四核A72方案(如RK3399),單線程性能提升80%,多線程任務(wù)處理能力翻倍。 6TOPS獨(dú)立NPU: 支持INT8/INT16混合精度計(jì)算,可直接部署YOLOv5
    發(fā)表于 04-15 10:48

    從零到一:如何利用非結(jié)構(gòu)化數(shù)據(jù)中臺快速部署AI解決方案

    在企業(yè)數(shù)字化轉(zhuǎn)型的浪潮中,AI已從概念走向落地應(yīng)用。然而,真正能高效、安全地部署AI解決方案的企業(yè)仍屬少數(shù),瓶頸往往出在“數(shù)據(jù)”——尤其是非結(jié)構(gòu)化數(shù)據(jù)的管理與應(yīng)用上。文件、音頻、視頻、
    的頭像 發(fā)表于 04-14 13:50 ?259次閱讀

    部署成本顯著降低!英特爾助陣高效AI算力一體機(jī)方案

    私有化部署需求提供強(qiáng)大支持。和傳統(tǒng)方案不同,該方案采用了多個(gè)銳炫顯卡,展現(xiàn)了出色的成本效益優(yōu)勢,顯著降低了大語言模型部署門檻,為企業(yè)和組織鋪
    的頭像 發(fā)表于 03-29 16:29 ?1206次閱讀
    <b class='flag-5'>部署</b>成本顯著降低!英特爾助陣高效<b class='flag-5'>AI</b>算力一體機(jī)<b class='flag-5'>方案</b>

    AI大模型端側(cè)部署正當(dāng)時(shí):移遠(yuǎn)端側(cè)AI大模型解決方案,激活場景智能新范式

    AI技術(shù)飛速發(fā)展的當(dāng)下,AI大模型的應(yīng)用正從云端向端側(cè)加速滲透。 作為全球領(lǐng)先的物聯(lián)網(wǎng)整體解決方案供應(yīng)商,移遠(yuǎn)通信憑借深厚的技術(shù)積累與前瞻性的戰(zhàn)略布局,在AI大模型端側(cè)
    發(fā)表于 03-27 11:26 ?240次閱讀
    <b class='flag-5'>AI</b>大模型端側(cè)<b class='flag-5'>部署</b>正當(dāng)時(shí):移遠(yuǎn)端側(cè)<b class='flag-5'>AI</b>大模型解決<b class='flag-5'>方案</b>,激活場景智能新范式

    AI大模型端側(cè)部署正當(dāng)時(shí):移遠(yuǎn)端側(cè)AI大模型解決方案,激活場景智能新范式

    AI技術(shù)飛速發(fā)展的當(dāng)下,AI大模型的應(yīng)用正從云端向端側(cè)加速滲透。作為全球領(lǐng)先的物聯(lián)網(wǎng)整體解決方案供應(yīng)商,移遠(yuǎn)通信憑借深厚的技術(shù)積累與前瞻性的戰(zhàn)略布局,在AI大模型端側(cè)
    的頭像 發(fā)表于 03-26 19:05 ?469次閱讀
    <b class='flag-5'>AI</b>大模型端側(cè)<b class='flag-5'>部署</b>正當(dāng)時(shí):移遠(yuǎn)端側(cè)<b class='flag-5'>AI</b>大模型解決<b class='flag-5'>方案</b>,激活場景智能新范式

    可智能深度學(xué)習(xí)的AI攝像機(jī)模組方案

    一、方案簡介 AI攝像機(jī)模組主要定位為行業(yè)AI攝像機(jī)模組,廣泛應(yīng)用在泛安防行業(yè),實(shí)現(xiàn)人臉識別、人臉抓拍、電動車識別、車牌識別等功能,用于實(shí)現(xiàn)身份驗(yàn)證、人員、車輛等管理。感算商城聯(lián)合知名方案
    發(fā)表于 03-21 11:28

    AI Agent 應(yīng)用與項(xiàng)目實(shí)戰(zhàn)》閱讀心得3——RAG架構(gòu)與部署本地知識庫

    技術(shù)不僅解決了LLM的知識更新問題,更為構(gòu)建專業(yè)領(lǐng)域的智能問答系統(tǒng)提供了完整的技術(shù)方案。通過與向量數(shù)據(jù)庫的深度集成,RAG實(shí)現(xiàn)了知識的動態(tài)擴(kuò)展和精準(zhǔn)檢索,這種架構(gòu)設(shè)計(jì)為AI系統(tǒng)的持續(xù)進(jìn)化提供
    發(fā)表于 03-07 19:49

    華為云發(fā)布DeepSeek本地部署方案

    華為云正式推出基于華為云Stack混合云的DeepSeek本地部署方案
    的頭像 發(fā)表于 02-18 10:05 ?1077次閱讀

    基于亞馬遜云科技的GROW with SAP解決方案 助力企業(yè)簡化云端ERP部署

    ,快速部署SAP ERP解決方案。雙方的合作將簡化與加速SAP S/4HANA Cloud(ERP云)的部署并為企業(yè)開啟全新的生成式AI驅(qū)
    的頭像 發(fā)表于 12-09 15:11 ?577次閱讀

    混合部署 | 在迅為RK3568上同時(shí)部署RT-Thread和Linux系統(tǒng)

    和安全性的同時(shí),靈活處理復(fù)雜的任務(wù)場景。 混合部署 在一般情況下,iTOP-RK3568 的四個(gè) Cortex-A55 核心通常運(yùn)行 Linux 系統(tǒng),這種架構(gòu)稱為對稱多處理(SMP)。而 AMP
    發(fā)表于 11-01 10:31

    混合部署 | 在迅為RK3568上同時(shí)部署RT-Thread和Linux系統(tǒng)

    和安全性的同時(shí),靈活處理復(fù)雜的任務(wù)場景。 混合部署 在一般情況下,iTOP-RK3568 的四個(gè) Cortex-A55 核心通常運(yùn)行 Linux系統(tǒng),這種架構(gòu)稱為對稱多處理(SMP)。而 AMP
    發(fā)表于 09-18 10:54

    芯科科技前沿的MCU+AI/ML開發(fā)工具解決方案

    人工智能(AI)和機(jī)器學(xué)習(xí)(ML)是使系統(tǒng)能夠從數(shù)據(jù)中學(xué)習(xí),進(jìn)行推斷并隨著時(shí)間的推移提高性能的關(guān)鍵技術(shù)。這些技術(shù)通常用于大型數(shù)據(jù)中心和功能強(qiáng)大的GPU,但是將它們部署在資源有限的設(shè)備
    的頭像 發(fā)表于 08-20 11:38 ?1099次閱讀