近日,騰訊公司宣布成功推出業(yè)界領(lǐng)先的開源MoE(Mixture of Experts,專家混合)大語言模型——Hunyuan-Large。這款模型不僅在參數(shù)量上刷新了業(yè)界紀(jì)錄,更在效果上展現(xiàn)出了卓越的性能,標(biāo)志著騰訊在自然語言處理領(lǐng)域邁出了重要的一步。
據(jù)了解,Hunyuan-Large的總參數(shù)量高達(dá)389B(即3890億),這一數(shù)字遠(yuǎn)超當(dāng)前許多主流的大語言模型。而其激活參數(shù)也達(dá)到了驚人的52B(即520億),這意味著模型在處理復(fù)雜任務(wù)時(shí)能夠展現(xiàn)出更強(qiáng)的學(xué)習(xí)能力和泛化性能。
除了參數(shù)量上的優(yōu)勢(shì),Hunyuan-Large在訓(xùn)練數(shù)據(jù)上也下足了功夫。據(jù)悉,該模型訓(xùn)練時(shí)所使用的token數(shù)量達(dá)到了7T(即7萬億),這確保了模型能夠充分學(xué)習(xí)到語言的多樣性和復(fù)雜性。同時(shí),Hunyuan-Large還支持最大上下文長(zhǎng)度為256K的文本輸入,這一特性使得模型在處理長(zhǎng)文本或?qū)υ拡?chǎng)景時(shí)能夠更準(zhǔn)確地捕捉上下文信息,從而生成更加連貫和自然的回復(fù)。
騰訊此次推出的Hunyuan-Large大語言模型,不僅展示了其在人工智能領(lǐng)域的深厚技術(shù)積累,也為整個(gè)自然語言處理領(lǐng)域的發(fā)展注入了新的活力。
-
人工智能
+關(guān)注
關(guān)注
1806文章
49014瀏覽量
249412 -
騰訊
+關(guān)注
關(guān)注
7文章
1678瀏覽量
50297 -
語言模型
+關(guān)注
關(guān)注
0文章
561瀏覽量
10788 -
自然語言
+關(guān)注
關(guān)注
1文章
292瀏覽量
13654
發(fā)布評(píng)論請(qǐng)先 登錄
華為宣布開源盤古7B稠密和72B混合專家模型
摩爾線程率先支持騰訊混元-A13B模型
華為正式開源盤古7B稠密和72B混合專家模型
騰訊公布大語言模型訓(xùn)練新專利
字節(jié)跳動(dòng)發(fā)布豆包大模型1.5 Pro
騰訊混元大模型開源成績(jī)斐然,GitHub Star數(shù)近1.4萬
騰訊混元大模型上線并開源文生視頻能力
大語言模型開發(fā)語言是什么
獵戶星空發(fā)布Orion-MoE 8×7B大模型及AI數(shù)據(jù)寶AirDS
騰訊混元Large模型及云TI平臺(tái)全新上線
搭建開源大語言模型服務(wù)的方法
開放原子開源大賽助力輕量級(jí)大語言模型應(yīng)用落地
PerfXCloud順利接入MOE大模型DeepSeek-V2

評(píng)論