今日,微軟發布官方聲明,稱其開發的 Phi-2 2.7B 模型在多項指標上超過了 Google 的 Gemini Nano-2 3.2B 模型。
Microsoft研發的Phi-2 2.7B模型
早前在 IT之家的報道中,微軟在Ignite 2023大會上首次披露了容納27億參數的Phi-2,在性能上較以往型號有明顯進步。
去年六月份,微軟推出了包含13億參數的Phi-1,主要應用于QA 問答、文本處理等領域。該模型使用大量高質量數據進行訓練,在基準測試中的表現甚至超過同類模型十倍以上。
今年九月份,微軟又進一步推出了Phi-1.5版,盡管依舊僅含13億元參數,但已可創作詩歌、電子郵件及故事,甚至可以對大量文本進行總結概括。在常識、語言理解以及推理的基準測試中,該版本的模型在部分領域已經可以媲美甚至超越含有高達100億參數的同類模型。
現如今,Phi-2的出現,使其所包含的參數數量達到驚人的27億,盡管與其他大型語言模型相比仍顯不足,它卻在邏輯推理和系統安全性能上展現出不容忽視的提升。通過適當的調整和定制化,小型的語言模型將成為云和邊緣應用的得力助手。
Google研發的Gemini Nano-2 3.2B模型
針對面向小型設備本地操作設計的Gemini Nano,新升級的2.0版本有著高達32億的參數,預計將首先配置在Pixel 8 Pro手機上。
就錄音功能而言,選擇所需的音頻文件后,用戶只需點擊“文本稿”標簽,再點選上方的“總結”按鈕,該應用便能迅速生成完整的主旨簡報。
而在用戶最為依賴的Gboard輸入法中,Gemini Nano的加入將極大程度提高交互的自然度,未來包括WhatsApp在內的眾多應用將會逐步引入這一更加人性化的功能。
-
微軟
+關注
關注
4文章
6673瀏覽量
105384 -
模型
+關注
關注
1文章
3488瀏覽量
50008 -
語言模型
+關注
關注
0文章
558瀏覽量
10679
發布評論請先 登錄
FD50-18S15B3C2 FD50-18S15B3C2

FD60-36S24B3R2 FD60-36S24B3R2

PFD50-36S24B3R2 PFD50-36S24B3R2

FD50-36S24B3(R)2 FD50-36S24B3(R)2

FD50-18S15B3(C)2 FD50-18S15B3(C)2

PFD12-36S24B2(C)5 PFD12-36S24B2(C)5

FD6-36S24B2C5 FD6-36S24B2C5

電線b1級和b2級阻燃的區別
谷歌 Gemini 2.0 Flash 系列 AI 模型上新
谷歌正式發布Gemini 2.0 性能提升近兩倍
谷歌發布Gemini 2.0 AI模型
谷歌計劃12月發布Gemini 2.0模型
聯發科新一代天璣旗艦芯片針對谷歌大語言模型Gemini Nano優化
在英特爾酷睿Ultra7處理器上優化和部署Phi-3-min模型

評論