女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于英特爾至強(qiáng)可擴(kuò)展處理器的浪潮信息服務(wù)器AI訓(xùn)推一體化方案

英特爾中國 ? 來源:英特爾中國 ? 2024-05-11 09:27 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

概 述

大模型已經(jīng)成為新一輪數(shù)字化轉(zhuǎn)型的重要驅(qū)動力,為了降低對算力與語料資源的要求,加快大模型在實際應(yīng)用的部署,目前企業(yè)普遍在開源/商用大模型中,加入少量語料對模型進(jìn)行預(yù)訓(xùn)練,以構(gòu)建面向具體場景的微調(diào)版大模型,并在實際業(yè)務(wù)中進(jìn)行模型推理,這種方式在經(jīng)濟(jì)性與靈活性方面通常更具優(yōu)勢。對于輕量級的人工智能 (AI) 場景而言,找到一個既經(jīng)濟(jì)又靈活的AI微調(diào)和推理解決方案顯得尤為重要。

浪潮信息和英特爾緊密合作,結(jié)合在硬件和軟件開發(fā)方面的技術(shù)優(yōu)勢,推出了基于英特爾至強(qiáng)可擴(kuò)展處理器的浪潮信息服務(wù)器AI訓(xùn)推一體化方案。該AI訓(xùn)推一體化方案支持計算機(jī)視覺模型的推理工作,同時還支持大語言模型 (LLM) 的微調(diào)和推理工作,并可以用于支持其他通用業(yè)務(wù)。這一方案具備高性能、高性價比、高靈活性等優(yōu)勢,可以充分滿足用戶構(gòu)建輕量級AI微調(diào)與推理系統(tǒng)的需求。

挑戰(zhàn)

在AI模型尤其是大模型微調(diào)及推理過程中,用戶普遍面臨著以下性能挑戰(zhàn):

如何滿足AI微調(diào)及推理對于算力的要求

在AI模型微調(diào)和推理過程中,特別是在大語言模型微調(diào)中,對算力的需求尤其突出。這既包括硬件提供的算力支持,也包括向量化指令集和矩陣計算指令集的支持。

如何滿足模型微調(diào)對于內(nèi)存規(guī)模的需求

在模型訓(xùn)練和微調(diào)中,需要存儲中間激活值、梯度信息,以及用于優(yōu)化器(如Adam、AdamW等)參數(shù)更新的信息,這就需要龐大的內(nèi)存作為支撐。模型微調(diào)實踐表明,Batch size設(shè)定不能太小(通常需要大于16),避免Batch size過小造成不穩(wěn)定的優(yōu)化器梯度下降。同時,訓(xùn)練過程中會產(chǎn)生大量的中間激活值,所需的內(nèi)存遠(yuǎn)遠(yuǎn)超過模型本身的大小。但是,傳統(tǒng)訓(xùn)練方案(雙路服務(wù)器,一機(jī)兩卡/一機(jī)四卡/一機(jī)八卡)由于顯存數(shù)量有限,難以滿足模型微調(diào)的顯存需求。

如何提供充足的內(nèi)存帶寬

AI推理任務(wù)對內(nèi)存帶寬有著高度需求,因此,AI訓(xùn)推服務(wù)器需要提供足夠大的內(nèi)存帶寬與內(nèi)存訪問速度,傳統(tǒng)的雙路服務(wù)器在內(nèi)存帶寬與訪問速度方面難以支撐模型的高效推理。

如何實現(xiàn)便捷擴(kuò)展

為了提升服務(wù)器的算力、內(nèi)存規(guī)模和帶寬,模型訓(xùn)練和推理通常需要將多個 CPU socket高效鏈接起來。而采用以太網(wǎng)作為連接方式將面臨速度慢、不穩(wěn)定、多顆CPU socket的擴(kuò)展性能差等問題。 除了性能挑戰(zhàn)之外,用戶還希望能夠盡可能地降低模型微調(diào)、推理平臺的構(gòu)建與運(yùn)營成本,提升平臺的靈活性,從而進(jìn)一步推動AI任務(wù)的普及和發(fā)展。

基于英特至強(qiáng)可擴(kuò)展處理器的浪潮信息服務(wù)器AI訓(xùn)推一體化方案

浪潮信息服務(wù)器AI訓(xùn)推一體化方案的硬件基礎(chǔ)是基于第四代英特爾至強(qiáng)可擴(kuò)展處理器的浪潮信息四路服務(wù)器。該服務(wù)器能夠充分發(fā)揮第四代英特爾至強(qiáng)可擴(kuò)展處理器強(qiáng)大的計算性能,并借助英特爾高級矩陣擴(kuò)展(英特爾AMX)和 IntelExtension for PyTorch (IPEX) 進(jìn)一步加速大模型微調(diào)和推理任務(wù),幫助用戶攻克AI應(yīng)用中的各項挑戰(zhàn)。

5f0c915a-0ed6-11ef-a297-92fbcf53809c.png

1. 浪潮信息服務(wù)器AI訓(xùn)推一體化方案架構(gòu)

浪潮信息四路服務(wù)器

為了支持在單臺浪潮信息四路服務(wù)器上,實現(xiàn)復(fù)雜的計算機(jī)視覺模型和大語言模型的微調(diào)及推理任務(wù),浪潮信息服務(wù)器AI訓(xùn)推一體化方案推薦采用英特爾至強(qiáng)金牌處理器或以上的型號。這不僅可以為高負(fù)荷情況下的任務(wù)提供額外的性能提升,還能支持在多線程處理能力上取得優(yōu)秀表現(xiàn)。 該方案推薦搭配DDR5內(nèi)存。DDR5內(nèi)存提供了比前代更高的帶寬,特別適合處理內(nèi)存密集型的應(yīng)用任務(wù)。當(dāng)處理大規(guī)模數(shù)據(jù)和復(fù)雜的計算任務(wù)時,DDR5能確保系統(tǒng)運(yùn)行的流暢性。同時,方案建議按照每個內(nèi)存通道1個DIMM (1DPC) 的配置,將內(nèi)存擴(kuò)展至2TB以上,以滿足同時對高帶寬和高內(nèi)存容量的需求。這一配置不僅可以優(yōu)化系統(tǒng)的運(yùn)行效率,還能在處理大型數(shù)據(jù)集時,提供足夠的內(nèi)存支持,從而確保微調(diào)任務(wù)以及推理任務(wù)的順暢執(zhí)行。

5f25369c-0ed6-11ef-a297-92fbcf53809c.png

2-1. NF8260M7(2U4路)服務(wù)器

5f3eee98-0ed6-11ef-a297-92fbcf53809c.png

2-2. NF8480M7(4U4路)服務(wù)器

四代英特爾至強(qiáng)擴(kuò)展處理器提供強(qiáng)大AI算力支持

第四代英特爾至強(qiáng)可擴(kuò)展處理器通過創(chuàng)新架構(gòu)增加了每個時鐘周期的指令,每個插槽多達(dá)60個核心,支持8通道DDR5內(nèi)存,有效提升了內(nèi)存帶寬與速度,并通過PCIe 5.0(80個通道)實現(xiàn)了更高的PCIe帶寬提升。第四代英特爾至強(qiáng)可擴(kuò)展處理器提供了出色性能和安全性,可根據(jù)用戶的業(yè)務(wù)需求進(jìn)行擴(kuò)展。借助內(nèi)置的加速器,用戶可以在AI、分析、云和微服務(wù)、網(wǎng)絡(luò)、數(shù)據(jù)庫、存儲等類型的工作負(fù)載中獲得優(yōu)化的性能。通過與強(qiáng)大的生態(tài)系統(tǒng)相結(jié)合,第四代英特爾至強(qiáng)可擴(kuò)展處理器能夠幫助用戶構(gòu)建更加高效、安全的基礎(chǔ)設(shè)施。

第四代英特爾至強(qiáng)可擴(kuò)展處理器內(nèi)置了創(chuàng)新的英特爾AMX加速引擎。英特爾AMX針對廣泛的硬件和軟件優(yōu)化,通過提供矩陣類型的運(yùn)算,顯著增加了人工智能應(yīng)用程序的每時鐘指令數(shù) (IPC),可為AI工作負(fù)載中的訓(xùn)練和推理上提供顯著的性能提升。在實際AI推理負(fù)載中,英特爾AMX能夠加速模型微調(diào)、提升模型的首包推理速度并降低延遲。英特爾AVX-512指令集能夠加速在KV Cache模式下的第二個及以上的token推理。

5f5d2034-0ed6-11ef-a297-92fbcf53809c.png

3. 英特爾至強(qiáng)可擴(kuò)展處理器為數(shù)據(jù)中心提供多種優(yōu)勢

英特爾豐富軟件生態(tài)助力加速AI部署,釋放算力潛能

除了在硬件領(lǐng)域取得顯著進(jìn)展之外,英特爾在人工智能領(lǐng)域亦構(gòu)建了一個強(qiáng)大且全面的軟件生態(tài)系統(tǒng),提供了包含 IntelExtension for PyToch和英特爾oneDNN在內(nèi)的豐富軟件,能夠幫助用戶充分利用英特爾硬件的強(qiáng)大性能,提高計算效率和運(yùn)行速度。

IntelExtension for PyTorch是一種開源擴(kuò)展,可優(yōu)化英特爾處理器上的深度學(xué)習(xí)性能。許多優(yōu)化最終將包含在未來的PyTorch主線版本中,但該擴(kuò)展允許PyTorch用戶更快地獲得最新功能和優(yōu)化。IntelExtension for Pytorch充分利用了英特爾AVX- 512、矢量神經(jīng)網(wǎng)絡(luò)指令 (VNNI) 和英特爾AMX,將最新的性能優(yōu)化應(yīng)用于英特爾硬件平臺。這些優(yōu)化既包括對PyTorch操作符、Graph和Runtime的改進(jìn),也包括特定于使用場景的自定義操作符和優(yōu)化器的添加。用戶可以通過簡易的Python API,只需對原始代碼做出微小更改即可在英特爾硬件平臺應(yīng)用最新性能優(yōu)化。

英特爾oneAPI Deep Neural Network Library (oneDNN) 是英特爾在軟件優(yōu)化領(lǐng)域的又一亮點(diǎn)。英特爾oneDNN是一個開源性能庫,專為深度學(xué)習(xí)應(yīng)用設(shè)計,支持廣泛的深度學(xué)習(xí)框架和應(yīng)用。該庫提供了高級性能優(yōu)化的深度學(xué)習(xí)原語,專門優(yōu)化了用于英特爾架構(gòu)的深度學(xué)習(xí)操作,包括英特爾至強(qiáng)處理器和 英特爾集成顯卡。通過oneDNN,開發(fā)者可以輕松地在英特爾硬件上實現(xiàn)高效的深度學(xué)習(xí)模型推理和訓(xùn)練,而無需深入了解底層硬件細(xì)節(jié)。英特爾oneDNN已經(jīng)被融合到多個開源平臺中,包括PyTorch和TensorFlow等。

5f7e25d6-0ed6-11ef-a297-92fbcf53809c.png
4. IntelExtension for PyTorch框架 5e89d86e-0ed6-11ef-a297-92fbcf53809c.gif

測 試 驗 證

在上述軟硬件基礎(chǔ)上,浪潮信息與英特爾合作,從多個方面入手,優(yōu)化了AI模型微調(diào)及推理性能。

采用英特爾AMX加速器和IntelExtension for PyTorch加速模型微調(diào)

得益于對IntelExtension for PyTorch的支持,以及強(qiáng)大的運(yùn)算能力和超大內(nèi)存,浪潮信息四路服務(wù)器在微調(diào)方面表現(xiàn)出強(qiáng)大的性能。浪潮信息四路服務(wù)器采用分布式數(shù)據(jù)并行 + LoRA (Low-Rank Adaptation) 微調(diào)以減少通信開銷,其具備的大內(nèi)存有利于支持更大的batch size,從而提高訓(xùn)練的收斂效果,改善模型質(zhì)量。目前,單臺浪潮信息四路服務(wù)器能夠支持高達(dá)30B模型的微調(diào)。

模型微調(diào)的測試數(shù)據(jù)如圖5顯示,當(dāng)采用alpaca數(shù)據(jù)集(6.5M tokens,數(shù)據(jù)集大小24.2MB)時,單臺四路服務(wù)器可以在72分鐘的時間內(nèi)完成Llama-2-7B微調(diào) (batch size = 16);可以在362分鐘的時間內(nèi)完成Llama-30B模型的微調(diào) (batch size = 16),穩(wěn)定支持非梯度累積模式下高達(dá)64的batch size1。

5fb896c6-0ed6-11ef-a297-92fbcf53809c.png

5. Llama-2-7B/13B/30B模型的微調(diào)時間

采用英特爾AMX加速器和張量并行加速大語言模型推理

浪潮信息四路服務(wù)器采用了英特爾UPI全拓?fù)溥B接方式, 張量并行推理方案下等同于有效地擴(kuò)展了內(nèi)存帶寬。這一優(yōu)勢與英特爾AMX加速器一起,使得服務(wù)器最終在推理7/13B參數(shù)級別的模型時表現(xiàn)出高度的可擴(kuò)展性。

測試數(shù)據(jù)如圖6-1和圖6-2所示,在7B和13B規(guī)模的模型中,模型推理的延遲可以低至20毫秒左右2,能夠滿足實際業(yè)務(wù)對于推理性能的要求。

5fcf0848-0ed6-11ef-a297-92fbcf53809c.png

6-1. 不同batch size下Llama-2-7B推理延遲測試

5fe4ebb8-0ed6-11ef-a297-92fbcf53809c.png

6-2. 不同batch size下Llama-2-13B推理延遲測試

采用英特爾AMX加速器和IntelExtension for PyTorch提升視覺模型推理性能

在非大語言模型的通用AI負(fù)載中,一般矩陣乘法(General Matrix Multiplication, GEMM) 往往消耗最多時間,推理訓(xùn)練都受算力限制。浪潮信息四路服務(wù)器在為基于CNN的視覺模型推理帶來更強(qiáng)算力的同時,利用英特爾高級矩陣擴(kuò)展(AMX) 加速矩陣乘法運(yùn)算。如圖7所示,對于經(jīng)典的視覺模型ResNet50,在推理階段,單顆處理器吞吐量最高可以達(dá)到2942.57FPS。同時,該解決方案可以支持高并發(fā),在單臺四路配置時可以達(dá)到11322.08 FPS的吞吐量3。

600aa45c-0ed6-11ef-a297-92fbcf53809c.png

7. 浪潮信息四路服務(wù)器 ResNet50推理性能 5e89d86e-0ed6-11ef-a297-92fbcf53809c.gif

收 益

基于英特爾至強(qiáng)可擴(kuò)展處理器的浪潮信息服務(wù)器AI訓(xùn)推一體化方案能夠為用戶AI任務(wù)帶來以下收益:

滿足中小規(guī)模的模型對于微調(diào)及推理的算力需求:通過硬件構(gòu)建與軟件優(yōu)化,該AI訓(xùn)推一體化方案提供了強(qiáng)大的模型微調(diào)與推理算力支持,在7B和13B規(guī)模的模型中,模型推理的延遲可以低至20毫秒左右,在基于CNN的視覺模型推理中,單臺四路服務(wù)器上可以達(dá)到11322.08FPS的吞吐量4。

更高的適用性、擴(kuò)展性:該AI訓(xùn)推一體化方案可以靈活地支持計算機(jī)視覺模型推理、大語言模型的微調(diào)和推理,以及其它通用業(yè)務(wù),并實現(xiàn)更高的擴(kuò)展性。

更高的性價比與投資回報:對比專用的AI服務(wù)器方案,該AI訓(xùn)推一體化方案具備高性價比、高可及性等優(yōu)勢,可助力用戶獲得更高的投資回報。

展 望

智能化成為業(yè)務(wù)關(guān)鍵驅(qū)動力的今天,用戶急切希望搭建自己的AI訓(xùn)練與推理計算平臺,以便能夠躋身人工智能熱潮之中,探索和擴(kuò)展他們的AI業(yè)務(wù)領(lǐng)域。以英特爾至強(qiáng)可擴(kuò)展處理器為基礎(chǔ)的浪潮信息服務(wù)器AI訓(xùn)推一體化方案憑借在性價比與靈活性等方面的優(yōu)勢,有望成為推動AI微調(diào)與推理的關(guān)鍵基礎(chǔ)設(shè)施。

展望AI技術(shù)的未來發(fā)展,其不僅將創(chuàng)造更多的業(yè)務(wù)形態(tài),而且為企業(yè)創(chuàng)造了巨大的商業(yè)潛力和發(fā)展機(jī)遇。浪潮和英特爾雙方將在技術(shù)探索、產(chǎn)品升級、應(yīng)用推廣等多個層面深度協(xié)作,推動AI在更多應(yīng)用場景的創(chuàng)新以及普及,助力AI的應(yīng)用與發(fā)展。



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    19852

    瀏覽量

    234191
  • 以太網(wǎng)
    +關(guān)注

    關(guān)注

    40

    文章

    5610

    瀏覽量

    175357
  • DDR5
    +關(guān)注

    關(guān)注

    1

    文章

    444

    瀏覽量

    24797
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    809

    瀏覽量

    13868
  • AI大模型
    +關(guān)注

    關(guān)注

    0

    文章

    370

    瀏覽量

    546

原文標(biāo)題:浪潮信息基于至強(qiáng)? 可擴(kuò)展處理器推出 AI 服務(wù)器訓(xùn)推一體化方案

文章出處:【微信號:英特爾中國,微信公眾號:英特爾中國】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    主控CPU全能選手,英特爾至強(qiáng)6助力AI系統(tǒng)高效運(yùn)轉(zhuǎn)

    有什么特殊之處呢? AI加速系統(tǒng)為何看重CPU主控能力? 作為造價極高的AI加速系統(tǒng),DGX B300可以不計成本地選任何CPU,只要它能充分的發(fā)揮整套系統(tǒng)的性能。選擇英特爾至強(qiáng)6作為
    的頭像 發(fā)表于 06-27 11:44 ?111次閱讀
    主控CPU全能選手,<b class='flag-5'>英特爾</b><b class='flag-5'>至強(qiáng)</b>6助力<b class='flag-5'>AI</b>系統(tǒng)高效運(yùn)轉(zhuǎn)

    英特爾發(fā)布邊緣AI控制與邊緣智算一體機(jī),創(chuàng)造“AI新視界”

    處理器的邊緣 AI 控制 和 基于英特爾銳炫 ? 顯卡的邊緣智算一體機(jī) ,為工業(yè)AI的規(guī)模
    發(fā)表于 06-24 17:50 ?714次閱讀
    <b class='flag-5'>英特爾</b>發(fā)布邊緣<b class='flag-5'>AI</b>控制<b class='flag-5'>器</b>與邊緣智算<b class='flag-5'>一體</b>機(jī),創(chuàng)造“<b class='flag-5'>AI</b>新視界”

    部署成本顯著降低!英特爾助陣高效AI算力一體機(jī)方案

    3月27日,英特爾舉辦了名為“‘至’繪未來,銳炫來襲”的創(chuàng)新解決方案研討會,與生態(tài)伙伴共同分享最新AI算力一體機(jī)方案。該
    的頭像 發(fā)表于 03-29 16:29 ?1138次閱讀
    部署成本顯著降低!<b class='flag-5'>英特爾</b>助陣高效<b class='flag-5'>AI</b>算力<b class='flag-5'>一體</b>機(jī)<b class='flag-5'>方案</b>

    英特爾至強(qiáng)6處理器助力數(shù)據(jù)中心整合升級

    繼去年9月重磅推出英特爾 至強(qiáng) 6900性能核處理器后,英特爾進(jìn)步擴(kuò)充至強(qiáng)6產(chǎn)品家族,于近期發(fā)
    的頭像 發(fā)表于 03-13 17:36 ?848次閱讀

    英特爾至強(qiáng)6再新品!打造最強(qiáng)AI“機(jī)頭引擎”

    的產(chǎn)品矩陣,很好地滿足市場的多樣需求;另方面,憑借卓越的 AI 性能提升,英特爾為數(shù)據(jù)中心提供了性能強(qiáng)勁的機(jī)頭節(jié)點(diǎn) CPU,助力企業(yè)在數(shù)字時代的
    的頭像 發(fā)表于 03-13 14:57 ?312次閱讀

    英特爾展示基于至強(qiáng)6處理器的基礎(chǔ)網(wǎng)絡(luò)設(shè)施

    ; 與5G核心網(wǎng)解決方案合作伙伴的深度合作,加快了英特爾至強(qiáng)6能效核處理器在整個生態(tài)系統(tǒng)中的應(yīng)用; 基于5G核心網(wǎng)工作負(fù)載的獨(dú)立驗證確認(rèn)了英特爾
    的頭像 發(fā)表于 03-08 09:24 ?516次閱讀

    MWC 2025:英特爾展示基于至強(qiáng)6處理器的基礎(chǔ)網(wǎng)絡(luò)設(shè)施

    3.2倍3; 與5G核心網(wǎng)解決方案合作伙伴的深度合作,加快了英特爾?至強(qiáng)?6能效核處理器在整個生態(tài)系統(tǒng)中的應(yīng)用; 基于5G核心網(wǎng)工作負(fù)載的獨(dú)立驗證確認(rèn)了
    發(fā)表于 03-03 15:52 ?226次閱讀
    MWC 2025:<b class='flag-5'>英特爾</b>展示基于<b class='flag-5'>至強(qiáng)</b>6<b class='flag-5'>處理器</b>的基礎(chǔ)網(wǎng)絡(luò)設(shè)施

    HPE攜手英特爾至強(qiáng)6,打造新服務(wù)器性能巔峰

    近日,慧與科技(HPE)推出了八款全新HPE ProLiant Compute Gen12服務(wù)器,標(biāo)志著新代企業(yè)級服務(wù)器領(lǐng)域的新標(biāo)桿正式誕生。這系列
    的頭像 發(fā)表于 02-18 10:38 ?417次閱讀

    英特爾發(fā)布全新企業(yè)AI一體化方案

    近日,英特爾正式推出了全新的企業(yè)AI一體化方案。該方案英特爾
    的頭像 發(fā)表于 12-03 11:20 ?564次閱讀

    英特爾發(fā)布全新企業(yè)AI一體化解決方案

    近日,英特爾正式推出了其全新的企業(yè)AI一體化解決方案,這一方案旨在為企業(yè)提供更加開放、擴(kuò)展且高
    的頭像 發(fā)表于 12-02 10:48 ?895次閱讀

    浪潮信息發(fā)布元腦企智一體機(jī)

    在2024中國算力大會上,浪潮信息正式發(fā)布了其創(chuàng)新的元腦企智一體機(jī)。這款一體機(jī)融合了元腦企智EPAI企業(yè)大模型開放平臺和元腦服務(wù)器,通過軟硬件協(xié)同的
    的頭像 發(fā)表于 09-30 16:50 ?1889次閱讀

    英特爾發(fā)布至強(qiáng)6性能核處理器

    近日,英特爾正式推出了其全新的英特爾? 至強(qiáng)? 6性能核處理器(代號Granite Rapids),旨在為AI、數(shù)據(jù)分析、科學(xué)計算等計算密集
    的頭像 發(fā)表于 09-30 16:22 ?683次閱讀

    英特爾?至強(qiáng)?擴(kuò)展處理器助力智慧醫(yī)療的數(shù)字轉(zhuǎn)型

    在現(xiàn)代醫(yī)療行業(yè),人工智能(AI)、物聯(lián)網(wǎng)(IoT)和5G網(wǎng)絡(luò)等前沿技術(shù)正在重新定義醫(yī)療服務(wù)的提供方式。英特爾?至強(qiáng)?
    發(fā)表于 09-29 11:13 ?6324次閱讀
    <b class='flag-5'>英特爾</b>?<b class='flag-5'>至強(qiáng)</b>?<b class='flag-5'>可</b><b class='flag-5'>擴(kuò)展</b><b class='flag-5'>處理器</b>助力智慧醫(yī)療的數(shù)字<b class='flag-5'>化</b>轉(zhuǎn)型

    英特爾發(fā)布至強(qiáng)6處理器產(chǎn)品

    以“綠色向新,釋放新質(zhì)生產(chǎn)力”為主題的英特爾至強(qiáng)6能效核處理器新品發(fā)布會在北京舉行。會上,英特爾重磅推出首款配備能效核的英特爾
    的頭像 發(fā)表于 09-23 15:48 ?652次閱讀

    開箱即用,AISBench測試展示英特爾至強(qiáng)處理器的卓越推理性能

    。 中國電子技術(shù)標(biāo)準(zhǔn)研究院賽西實驗室依據(jù)國家標(biāo)準(zhǔn)《人工智能服務(wù)器系統(tǒng)性能測試規(guī)范》(征求意見稿)相關(guān)要求,使用AISBench?2.0測試工具,完成了第五代英特爾至強(qiáng)
    的頭像 發(fā)表于 09-06 15:33 ?736次閱讀
    開箱即用,AISBench測試展示<b class='flag-5'>英特爾</b><b class='flag-5'>至強(qiáng)</b><b class='flag-5'>處理器</b>的卓越推理性能