女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

國(guó)產(chǎn)大模型第一梯隊(duì)玩家,為什么pick了CPU?

愛(ài)云資訊 ? 2024-07-10 20:13 ? 次閱讀

AI一天,人間一年。

現(xiàn)在不論是大模型本身,亦或是AI應(yīng)用的更新速度簡(jiǎn)直令人直呼跟不上——

Sora、Suno、Udio、Luma……重磅應(yīng)用一個(gè)接一個(gè)問(wèn)世。

也正如來(lái)自InfoQ的調(diào)查數(shù)據(jù)顯示的那般,雖然AIGC目前還處于起步階段,但市場(chǎng)規(guī)模已初具雛形:

wKgaomaOetyAeV8HAAAoBgr9XkQ206.png

行業(yè)整體迅速發(fā)展固然是好事,但具體到每個(gè)的應(yīng)用或者大模型的落地來(lái)說(shuō),面臨的競(jìng)爭(zhēng)也越發(fā)激烈了

例如前不久各個(gè)大模型廠(chǎng)商之間展開(kāi)的非常激烈的“價(jià)格戰(zhàn)”,主打一個(gè)比誰(shuí)更便宜,甚至直接把大模型價(jià)格推向“厘時(shí)代”

加上最近OpenAI的“斷供”事件,更是讓國(guó)內(nèi)廠(chǎng)商們?cè)诖虺觥拜p松搬家”計(jì)劃的同時(shí),再加碼Tokens送送送的力度。

究其原因,也是與當(dāng)下應(yīng)用為王,尤其是以盡量低的成本把業(yè)務(wù)快速落地的這一大趨勢(shì)緊密相關(guān)。

那么問(wèn)題來(lái)了,大模型玩家們何以在又快又好又省之間做到平衡?

這就回到了那個(gè)避不開(kāi),同時(shí)又是成本里占絕對(duì)大頭的因素——算力。

現(xiàn)在提及大模型的訓(xùn)練和推理,很多人的第一反應(yīng)或許就是想到了GPU

誠(chéng)然GPU在高性能上占據(jù)著一定的優(yōu)勢(shì),但它所存在“硬傷”也是比較明顯,那便是供應(yīng)不足價(jià)格昂貴

何以破局?國(guó)產(chǎn)大模型第一梯隊(duì)玩家百度智能云千帆大模型平臺(tái),就給出了自己的一個(gè)更具“效價(jià)比”的解法:

wKgaomaOetyAeVxqAAA8o1p1P2A252.png

具體到算力的部署上,百度智能云AI與大模型平臺(tái)總經(jīng)理忻舟認(rèn)為:

wKgZomaOetyAPoYgAABkHtq09dU344.png

一言蔽之,在大模型時(shí)代,CPU甚至比以往更加重要了,而且是能讓大模型和應(yīng)用做到“快好省”落地的關(guān)鍵因素之一。

那么具體“上崗”效果又是如何,我們繼續(xù)往下看。

國(guó)產(chǎn)頭部大模型玩家,pick了CPU

國(guó)內(nèi)AIGC應(yīng)用爆發(fā),這其中,百度智能云千帆大模型平臺(tái)功不可沒(méi)。

作為企業(yè)使用大模型的”一站式”服務(wù)平臺(tái),千帆大模型平臺(tái)自去年3月發(fā)布以來(lái)已有超12萬(wàn)客戶(hù)使用,累計(jì)調(diào)優(yōu)模型2萬(wàn)個(gè),孵化應(yīng)用4.2萬(wàn)個(gè)。

這些應(yīng)用覆蓋教育、金融、辦公、醫(yī)療等眾多場(chǎng)景,為行業(yè)數(shù)字化轉(zhuǎn)型提供了有力支撐。

教育領(lǐng)域,千帆大模型平臺(tái)賦能了試題生成、在線(xiàn)批改、題目解析等應(yīng)用,大大提升了教學(xué)和備考效率。

例如用戶(hù)可以提供參考材料,設(shè)定題型和難度,平臺(tái)就能自動(dòng)生成高質(zhì)量的試題。而交互式的題目解析,則可以針對(duì)每位學(xué)生的薄弱環(huán)節(jié),提供個(gè)性化的學(xué)習(xí)指導(dǎo)。

辦公場(chǎng)景,千帆大模型平臺(tái)與業(yè)內(nèi)頭部企業(yè)合作,共同打造了智能寫(xiě)作助手等創(chuàng)新應(yīng)用,能夠根據(jù)用戶(hù)輸入的關(guān)鍵詞,快速生成招聘文案、營(yíng)銷(xiāo)方案、數(shù)據(jù)報(bào)告等專(zhuān)業(yè)文檔。

還可以專(zhuān)注于各類(lèi)寫(xiě)作場(chǎng)景,可以智能生成論文大綱、項(xiàng)目匯報(bào)、品牌宣傳稿等,大大提升了行政和營(yíng)銷(xiāo)人員的工作效率。

醫(yī)療健康是千帆大模型平臺(tái)的另一大應(yīng)用賽道。基于醫(yī)療知識(shí)庫(kù)訓(xùn)練的模型,可以自動(dòng)生成體檢報(bào)告解讀,用通俗易懂的語(yǔ)言向用戶(hù)解釋各項(xiàng)指標(biāo),并給出個(gè)性化的健康指導(dǎo)。

這讓普通大眾也能更好地了解自己的身體狀況,實(shí)現(xiàn)”健康自主管理”。

可以看到,千帆大模型平臺(tái)在多個(gè)領(lǐng)域?qū)崿F(xiàn)了AI模型的”最后一公里”落地。

那么千帆大模型平臺(tái)是怎么支撐如此多AI應(yīng)用的呢?

答案是:讓CPU成為客戶(hù)的選擇之一,讓“效價(jià)比”的紅利普惠千行百業(yè)

wKgZomaOetyAKr_mAAL_mTnK4f0136.png

之所以如此,百度智能云所給出的解釋是:

wKgZomaOetyAYFp9AACKmCKKcxQ895.pngwKgaomaOet2AHDKAAARNlio5lno465.png

至于效果,以L(fǎng)lama-2-7B為例,在第四代英特爾? 至強(qiáng)? 可擴(kuò)展處理器上輸出 Token 吞吐可達(dá) 100 TPS 以上,相比第三代提升了60%。

wKgZomaOet2ANHptAACDwqnjnlU607.png

Llama-2-7b模型輸出Token吞吐

在低延遲的場(chǎng)景,同等并發(fā)下,第四代至強(qiáng)? 可擴(kuò)展處理器的首Token時(shí)延比第三代至強(qiáng)? 可降低50%以上。

在將處理器升級(jí)為第五代至強(qiáng)? 可擴(kuò)展處理器之后,較上代的吞吐可提升45%左右,首 Token 時(shí)延下降50%左右。

wKgaomaOet2AStaMAACIYlSalt0058.png

Llama-2-7b模型首Token時(shí)延

并且千帆大模型平臺(tái)團(tuán)隊(duì)根據(jù)實(shí)踐經(jīng)驗(yàn)還表示:

wKgaomaOet2ACnd_AAAmm9ePFBs706.png

不僅如此,利用充足的CPU資源,降低對(duì)于A(yíng)I加速卡的需求,從而降低 LLM 推理服務(wù)的總體擁有成本 (TCO),特別是在離線(xiàn)的 LLM 推理場(chǎng)景中表現(xiàn)出色。

而且在千帆大模型平臺(tái)上,可不止是有自家的ERNIE,還有很多主流的大模型都集成于此。

這也在一定程度上從側(cè)面印證了第五代英特爾? 至強(qiáng)? 可擴(kuò)展處理器在性能上的過(guò)關(guān)。

wKgZomaOet2AUsiIAACusZarcTE137.png

英特爾第五代至強(qiáng),如何讓性能和效率變得Pro Max?

百度智能云千帆大模型平臺(tái),不止需要大模型推理一種工作負(fù)載,它其實(shí)是一個(gè)覆蓋大模型全生命周期的平臺(tái)。

具體來(lái)說(shuō),千帆大模型平臺(tái)提供數(shù)據(jù)標(biāo)注,模型訓(xùn)練與評(píng)估,推理服務(wù)與應(yīng)用集成的全面功能服務(wù),以及快速應(yīng)用編排與插件集成,助力大模型多場(chǎng)景落地應(yīng)用。這樣一來(lái),比起專(zhuān)為大模型推理部署專(zhuān)用加速器,充分利用平臺(tái)已廣泛部署的CPU資源,就是更劃算的選擇了。

對(duì)于千帆大模型平臺(tái)上存在的大量離線(xiàn)大模型應(yīng)用需求來(lái)說(shuō),如生成文章總結(jié)、摘要、評(píng)估多個(gè)模型的效果等,這類(lèi)需求對(duì)推理的時(shí)延要求其實(shí)不高,但內(nèi)存容易成為瓶頸。

采用CPU來(lái)做,擴(kuò)展內(nèi)存更方便,還可以利用起平臺(tái)閑時(shí)的算力資源,進(jìn)一步提高資源利用率,起到降低總擁有成本的作用。

在這個(gè)大背景下,第五代英特爾? 至強(qiáng)? 可擴(kuò)展處理器中的性能密集型通用計(jì)算應(yīng)用負(fù)載(類(lèi)似P Core性能核)的設(shè)計(jì)就尤為關(guān)鍵了。

與E Core(能效核)相比,P Core采用了追求性能最大化的設(shè)計(jì),能承載非常重的負(fù)載,同時(shí)還兼顧了AI推理加速。

采用此設(shè)計(jì)的第五代至強(qiáng)? 可擴(kuò)展處理器,在兼顧AI推理加速這一點(diǎn)上可不是說(shuō)說(shuō)而已,而是軟硬件協(xié)同優(yōu)化,各方面都考慮到位了。

硬件方面,英特爾? AMX(高級(jí)矩陣擴(kuò)展)技術(shù),正是為大模型推理重深度學(xué)習(xí)中大量的矩陣乘法運(yùn)算專(zhuān)門(mén)優(yōu)化的,可以理解成”CPU 里的 Tensor Core”。

有了英特爾? AMX,處理器每個(gè)時(shí)鐘周期可完成高達(dá)2048個(gè)INT8運(yùn)算,比上一代AVX512_VNNI指令提升8倍之多。

更重要的是,英特爾? AMX加速器是內(nèi)置在CPU核心里的,讓矩陣存儲(chǔ)和運(yùn)算更近,這一特性應(yīng)用在大模型推理上,能夠降低處理下一個(gè)Token的時(shí)延,讓終端用戶(hù)的體驗(yàn)更好。

wKgaomaOet2AetpmAAJlylTyJ58844.png

英特爾? AMX 可以更高效的實(shí)現(xiàn) AI 加速

軟件方面,百度智能云千帆大模型平臺(tái)已經(jīng)引入了針對(duì)英特爾? 至強(qiáng)? 可擴(kuò)展平臺(tái)深度優(yōu)化的大模型推理軟件解決方案xFasterTransformer (xFT),并將其作為后端推理引擎。主要優(yōu)化策略如下:

  • 充分利用 AMX/AVX512 等指令集,高效實(shí)現(xiàn)核心算子如 Flash Attention 等
  • 采用低精度量化,降低數(shù)據(jù)訪(fǎng)存量,發(fā)揮 INT8/BF16 運(yùn)算的優(yōu)勢(shì)
  • 支持超大規(guī)模模型的多機(jī)多卡并行推理
wKgZomaOet2ABPkEAAHM8sJbXQU525.png

英特爾? 至強(qiáng)? 可擴(kuò)展處理器 LLM 推理軟件解決方案

最后還要補(bǔ)充的一點(diǎn)是,要知道選擇一種硬件平臺(tái),不止關(guān)乎于設(shè)備本身的采購(gòu)價(jià)格,還會(huì)影響到后續(xù)的維護(hù)成本,甚至人才儲(chǔ)備成本。

所以正如百度智能云所言,高性?xún)r(jià)比的算力基礎(chǔ)設(shè)施,與先進(jìn)的大模型算法和平臺(tái)軟件相輔相成,讓上層的開(kāi)發(fā)者們能夠更加平滑地應(yīng)用,構(gòu)建他們的業(yè)務(wù),才能最大化云計(jì)算平臺(tái)的商業(yè)價(jià)值。

大模型時(shí)代,CPU大有可為

縱觀(guān)當(dāng)下,大模型正從實(shí)驗(yàn)室走向產(chǎn)業(yè),從少數(shù)人的“玩具”變?yōu)榇蟊娍捎玫摹肮ぞ摺薄?/p>

這意味著,大模型服務(wù)不僅要有優(yōu)秀的性能表現(xiàn),還要做到價(jià)格親民、部署便捷。一言以蔽之,“快好省”成了大模型商業(yè)化的關(guān)鍵一環(huán)。

而要實(shí)現(xiàn)“快好省”,算力基礎(chǔ)設(shè)施的選擇至關(guān)重要

傳統(tǒng)觀(guān)點(diǎn)認(rèn)為,專(zhuān)用加速器才是AI的“標(biāo)配”。但在供應(yīng)緊張、成本高企的背景下,專(zhuān)用加速器的優(yōu)勢(shì)正在減弱。

相比之下,優(yōu)化良好的高端 CPU 不僅能提供足夠應(yīng)對(duì)大模型推理的算力,而且具有更廣泛的部署基礎(chǔ)和更成熟的軟件生態(tài)、以及更好的安全保障,開(kāi)始受到越來(lái)越多業(yè)界玩家的青睞。

以英特爾? 至強(qiáng)? 系列為代表的x86架構(gòu)CPU,擁有成熟完善的軟件生態(tài)和廣泛的應(yīng)用基礎(chǔ)。數(shù)以百萬(wàn)計(jì)的開(kāi)發(fā)者可以利用現(xiàn)有工具和框架,快速構(gòu)建和優(yōu)化AI應(yīng)用,而無(wú)需額外學(xué)習(xí)專(zhuān)門(mén)的加速器軟件棧,大大降低了開(kāi)發(fā)難度和遷移成本。

同時(shí),企業(yè)級(jí)用戶(hù)還可以利用CPU內(nèi)置的多層次安全技術(shù),實(shí)現(xiàn)從硬件到軟件的全棧保護(hù),充分保障數(shù)據(jù)安全和隱私。這些優(yōu)勢(shì),是當(dāng)前專(zhuān)用加速器難以比擬的。

由此可見(jiàn),充分利用CPU進(jìn)行推理,讓AI從“燒錢(qián)游戲”變?yōu)椤捌栈?a target="_blank">科技,正是AIGC產(chǎn)業(yè)應(yīng)對(duì)算力門(mén)檻,推動(dòng)規(guī)模化應(yīng)用落地的關(guān)鍵一招。未來(lái),隨著技術(shù)創(chuàng)新和生態(tài)完善,這一模式還將為更多企業(yè)創(chuàng)造價(jià)值,為產(chǎn)業(yè)發(fā)展注入新的動(dòng)力。

除了直接加速推理任務(wù)外,CPU在完整的端到端AI管線(xiàn)中還能高效完成數(shù)據(jù)預(yù)處理、特征工程等AI全流程中的關(guān)鍵步驟。而支持機(jī)器學(xué)習(xí)和圖分析的各類(lèi)數(shù)據(jù)庫(kù),也主要是構(gòu)建在CPU之上的。以至強(qiáng)? 可擴(kuò)展處理器為例,除了英特爾? AMX之外,還有諸如英特爾? 數(shù)據(jù)保護(hù)與壓縮加速技術(shù)(英特爾? QAT)、英特爾? 存內(nèi)分析加速器(英特爾? IAA)等一系列數(shù)據(jù)分析引擎內(nèi)置于處理器中,通過(guò)卸載特定任務(wù)使CPU得到更好的利用,從而提升工作負(fù)載整體性能,實(shí)現(xiàn)數(shù)據(jù)分析加速。

由此可見(jiàn),構(gòu)建“快、準(zhǔn)、穩(wěn)”的 AI 應(yīng)用,既要靠專(zhuān)用加速器強(qiáng)大的算力,也離不開(kāi)CPU超強(qiáng)的通用計(jì)算能力去釋放整個(gè)系統(tǒng)的潛力

為了科普CPU在A(yíng)I推理新時(shí)代的玩法,量子位開(kāi)設(shè)了《最“in”AI》專(zhuān)欄,將從技術(shù)科普、行業(yè)案例、實(shí)戰(zhàn)優(yōu)化等多個(gè)角度全面解讀。

我們希望通過(guò)這個(gè)專(zhuān)欄,讓更多的人了解CPU在A(yíng)I推理加速,甚至是整個(gè)AI平臺(tái)或全流程加速上的實(shí)踐成果,重點(diǎn)就是如何更好地利用CPU來(lái)提升大模型應(yīng)用的性能和效率。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    11033

    瀏覽量

    215996
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    34205

    瀏覽量

    275367
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3026

    瀏覽量

    3825
收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    破局時(shí)刻:大陸首款55A/-200V/50mΩ高壓MOSFET問(wèn)世-VBP2205N

    半導(dǎo)體正式邁入“高壓低損”技術(shù)第一梯隊(duì)。 技術(shù)硬實(shí)力:為何VBP2205N是行業(yè)里程碑? 1. 參數(shù)對(duì)標(biāo)國(guó)際巨頭,國(guó)產(chǎn)
    的頭像 發(fā)表于 05-29 17:44 ?139次閱讀
    破局時(shí)刻:大陸首款55A/-200V/50mΩ高壓MOSFET問(wèn)世-VBP2205N

    海康機(jī)器人如何站穩(wěn)機(jī)器視覺(jué)行業(yè)第一梯隊(duì)

    與機(jī)器視覺(jué)行業(yè)同成長(zhǎng)起來(lái)的海康機(jī)器人,在近兩年下游行業(yè)需求整體承壓、市場(chǎng)競(jìng)爭(zhēng)白熱化加劇、洗牌加速的背景下,仍以出色的“答卷”,站穩(wěn)機(jī)器視覺(jué)行業(yè)第一梯隊(duì)
    的頭像 發(fā)表于 05-26 09:39 ?259次閱讀

    鍵對(duì)焦+鍵調(diào)平,測(cè)量效率提升7倍 | 優(yōu)可測(cè)全新旗艦白光干涉儀發(fā)布

    測(cè)量精度小于1納米,性能進(jìn)入全球一梯隊(duì),優(yōu)可測(cè)旗艦白光干涉儀發(fā)布
    的頭像 發(fā)表于 03-27 11:03 ?401次閱讀
    <b class='flag-5'>一</b>鍵對(duì)焦+<b class='flag-5'>一</b>鍵調(diào)平,測(cè)量效率提升7倍 | 優(yōu)可測(cè)全新旗艦白光干涉儀發(fā)布

    魔視智能攜手奇瑞汽車(chē)共筑智能駕駛新生態(tài)

    的先行者,奇瑞宣布將通過(guò)“全域智能”布局,加速向“全球信賴(lài)的智能出行生態(tài)引領(lǐng)者”轉(zhuǎn)型,推動(dòng)中國(guó)智能汽車(chē)產(chǎn)業(yè)邁入全球第一梯隊(duì)
    的頭像 發(fā)表于 03-20 16:44 ?501次閱讀

    商湯科技位列中國(guó)大模型應(yīng)用市場(chǎng)領(lǐng)域第一梯隊(duì)

    國(guó)際權(quán)威咨詢(xún)機(jī)構(gòu)IDC最新發(fā)布的《中國(guó)大模型應(yīng)用市場(chǎng)份額,2024:格局巨變》報(bào)告顯示,2024年中國(guó)大模型應(yīng)用市場(chǎng)規(guī)模達(dá)47.9億元人民幣,行業(yè)競(jìng)爭(zhēng)格局經(jīng)歷重大變革。在眾多技術(shù)企業(yè)的激烈競(jìng)爭(zhēng)中,商湯科技占據(jù)13.8%的市場(chǎng)份額進(jìn)入前三,位列中國(guó)大
    的頭像 發(fā)表于 03-19 15:00 ?574次閱讀

    商湯“日日新”融合大模型登頂大語(yǔ)言與多模態(tài)雙榜單

    據(jù)弗若斯特沙利文(Frost & Sullivan, 簡(jiǎn)稱(chēng)“沙利文”)聯(lián)合頭豹研究院發(fā)布的《2025年中國(guó)大模型年度評(píng)測(cè)》結(jié)果顯示:在語(yǔ)言和多模態(tài)核心能力測(cè)評(píng)中,商湯“日日新”融合大模型斬獲國(guó)內(nèi)第一梯隊(duì)成績(jī)。
    的頭像 發(fā)表于 03-18 10:35 ?465次閱讀

    當(dāng) DeepSeek 顛覆 AI 格局,線(xiàn)路板行業(yè)何去何從?

    最近,DeepSeek 可是火出了圈,在多模態(tài)理解、復(fù)雜推理等方面甚至超越 GPT-4,還開(kāi)源部分代碼模塊,標(biāo)志著國(guó)產(chǎn) AI 技術(shù)邁入全球第一梯隊(duì)。這技術(shù)突破,不僅在 AI 領(lǐng)域掀
    的頭像 發(fā)表于 02-11 15:15 ?434次閱讀

    飛騰CPU成功支持DeepSeek全系列大模型

    成功實(shí)現(xiàn)對(duì)DeepSeek全系列大模型的端到端支持。 這成就不僅覆蓋了數(shù)據(jù)中心場(chǎng)景,還全面擴(kuò)展到了終端場(chǎng)景,標(biāo)志著國(guó)產(chǎn)CPU在A(yíng)I大
    的頭像 發(fā)表于 02-10 14:26 ?551次閱讀

    商湯科技位列GenAI IaaS領(lǐng)域第一梯隊(duì)

    國(guó)際權(quán)威咨詢(xún)機(jī)構(gòu)IDC近日發(fā)布《中國(guó)智算服務(wù)市場(chǎng)(2024上半年)跟蹤》報(bào)告。報(bào)告顯示,2024年上半年,商湯科技作為國(guó)內(nèi)領(lǐng)先的智算服務(wù)商,以13.3%的市場(chǎng)份額穩(wěn)居GenAI IaaS市場(chǎng)Top3,位列GenAI IaaS領(lǐng)域第一梯隊(duì)
    的頭像 發(fā)表于 12-24 09:23 ?698次閱讀

    東風(fēng)日產(chǎn)與Momenta合作推出高階智駕方案

    日前,東風(fēng)日產(chǎn)官宣攜手全球領(lǐng)先的自動(dòng)駕駛公司Momenta,聯(lián)合打造基于端到端智駕大模型的行業(yè)領(lǐng)先高階智駕方案。東風(fēng)日產(chǎn)與Momenta的合作,是東風(fēng)日產(chǎn)智能化轉(zhuǎn)型的關(guān)鍵步,標(biāo)志其正式步入智能駕駛第一梯隊(duì),比肩各大新勢(shì)力品牌。
    的頭像 發(fā)表于 11-22 16:56 ?1114次閱讀

    2024安防行業(yè)前三季度報(bào)出爐:誰(shuí)在爭(zhēng)先,誰(shuí)在嘆氣?

    2024安防行業(yè)前三季度整體增速收窄,部分企業(yè)營(yíng)收利潤(rùn)雙增,第一梯隊(duì)增收不增利,海外業(yè)務(wù)成亮點(diǎn),特別是新興市場(chǎng),安防企業(yè)持續(xù)尋找新增長(zhǎng)點(diǎn)
    的頭像 發(fā)表于 11-13 10:39 ?788次閱讀

    商湯日日新·商量大模型位列國(guó)內(nèi)大模型第一梯隊(duì)

    剛剛,中文大模型測(cè)評(píng)基準(zhǔn)SuperCLUE發(fā)布《中文大模型基準(zhǔn)測(cè)評(píng)2024年10月報(bào)告》。
    的頭像 發(fā)表于 11-08 15:38 ?898次閱讀

    RISC-V擁有巨大市場(chǎng)潛力的原因

    旬發(fā)布第三代“香山”開(kāi)源高性能RISC-V處理器核,其性能水平已進(jìn)入全球第一梯隊(duì),可廣泛應(yīng)用于服務(wù)器芯片、AI芯片、GPU、DPU等高端芯片領(lǐng)域。 2、技術(shù)進(jìn)步:RISC-V架構(gòu)正在不斷優(yōu)化,還與
    發(fā)表于 09-30 14:20

    云知聲山海大模型位居全球大模型第一梯隊(duì)

    SuperCLUE發(fā)布《中文大模型基準(zhǔn)測(cè)評(píng)2024上半年報(bào)告》,報(bào)告選取國(guó)內(nèi)外有代表性的33個(gè)大模型在6月份的版本,通過(guò)多維度綜合性測(cè)評(píng),對(duì)國(guó)內(nèi)外大模型發(fā)展現(xiàn)狀進(jìn)行觀(guān)察與思考。
    的頭像 發(fā)表于 09-12 14:41 ?866次閱讀

    GenAI IaaS增速驚人,商湯科技躋身第一梯隊(duì)

    ,與火山引擎、阿里巴巴共同躋身2023年下半年中國(guó)GenAI IaaS服務(wù)廠(chǎng)商TOP 3,以顯著的市場(chǎng)份額優(yōu)勢(shì)位居GenAI IaaS領(lǐng)域的第一梯隊(duì)
    的頭像 發(fā)表于 07-30 11:00 ?1054次閱讀
    GenAI IaaS增速驚人,商湯科技躋身<b class='flag-5'>第一梯隊(duì)</b>