女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

微軟發(fā)布PhI-3-Vision模型,提升視覺AI效率

微云疏影 ? 來源:綜合整理 ? 作者:綜合整理 ? 2024-05-28 11:35 ? 次閱讀

5 月 28 日,微軟在 Build 2024 大會(huì)上推出了最新的 Phi-3 系列成員——Phi-3-vision。這一工具主打視覺應(yīng)用,能有效處理圖片文字信息,且在移動(dòng)設(shè)備上也能運(yùn)行自如。

Phi-3-vision 是一種小型多模式語言模型(SLM),主要適用于本地人工智能場景。其模型參數(shù)高達(dá) 42 億,上下文序列包含 128k 個(gè)符號(hào),可滿足各種視覺推理和其他任務(wù)需求。

Microsoft 通過一篇新發(fā)表的論文[PDF]展示了 Phi-3-vision 的強(qiáng)大實(shí)力。與其他模型如 Claude 3-haiku、Gemini 1.0 Pro 相比,Phi-3-vision 毫不遜色。

此外,Microsoft 還對(duì) Phi-3-vision 進(jìn)行了多項(xiàng)測(cè)試,并將其與其他競品模型進(jìn)行了比較,包括字節(jié)跳動(dòng)的 Llama3-Llava-Next(8B)、微軟研究院與威斯康星大學(xué)、哥倫比亞大學(xué)聯(lián)合開發(fā)的 LlaVA-1.6(7B)以及阿里巴巴通義千問 QWEN-VL-Chat 模型等。結(jié)果表明,Phi-3-vision 在多個(gè)項(xiàng)目中的表現(xiàn)均十分出色。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 微軟
    +關(guān)注

    關(guān)注

    4

    文章

    6671

    瀏覽量

    105364
  • 人工智能
    +關(guān)注

    關(guān)注

    1804

    文章

    48691

    瀏覽量

    246413
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    558

    瀏覽量

    10667
收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    DevEco Studio AI輔助開發(fā)工具兩大升級(jí)功能 鴻蒙應(yīng)用開發(fā)效率提升

    帶來了前所未有的智能問答體驗(yàn)。 RAG增強(qiáng)型與傳統(tǒng)生成式AI的關(guān)鍵差異: 圖2:DeepSeek模型增強(qiáng)RAG能力前后效果對(duì)比圖 升級(jí)點(diǎn)2:新增代碼解釋功能,提升初學(xué)者開發(fā)效率 針對(duì)
    發(fā)表于 04-18 14:43

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    的端側(cè)部署,Token產(chǎn)生速度提升了40%,讓端側(cè)大模型擁有更高的計(jì)算效率和推理性能,使端側(cè)AI交互響應(yīng)更及時(shí),用戶體驗(yàn)更貼心。 聯(lián)發(fā)科還與vivo和全民K歌攜手,借助天璣
    發(fā)表于 04-13 19:52

    添越智創(chuàng)基于 RK3588 開發(fā)板部署測(cè)試 DeepSeek 模型全攻略

    AI 處理效率,成為部署各類 AI 模型的關(guān)鍵依托。 憑借這些卓越的硬件性能,RK3588 開發(fā)板在保持低功耗的同時(shí),展現(xiàn)出強(qiáng)大的運(yùn)算能力,無疑是部署 DeepSeek
    發(fā)表于 02-14 17:42

    字節(jié)跳動(dòng)發(fā)布豆包大模型1.5 Pro

    3.5 Sonnet等模型。 該模型采用大規(guī)模稀疏MoE架構(gòu),使用較小的激活參數(shù)進(jìn)行預(yù)訓(xùn)練,卻能等效7倍激活參數(shù)的Dense模型性能,遠(yuǎn)超業(yè)內(nèi)MoE架構(gòu)約3倍杠桿的常規(guī)
    的頭像 發(fā)表于 01-23 10:24 ?532次閱讀

    在算力魔方上本地部署Phi-4模型

    智能水平上的一大飛躍。它不僅達(dá)到了之前只有Llama 3.1 405B模型才具備的智能水平,而且還超越了11月發(fā)布的GPT-4o模型。 本文我們將分享微軟剛剛
    的頭像 發(fā)表于 01-15 11:05 ?397次閱讀
    在算力魔方上本地部署<b class='flag-5'>Phi</b>-4<b class='flag-5'>模型</b>

    虹軟AI視覺賦能雷鳥V3 AI拍攝眼鏡發(fā)布

    近日,雷鳥創(chuàng)新正式發(fā)布全新一代AI拍攝眼鏡——雷鳥V3。該產(chǎn)品搭載多項(xiàng)創(chuàng)新技術(shù),包括融合虹軟AI視覺算法的獵鷹影像系統(tǒng)、通義獨(dú)家定制大
    的頭像 發(fā)表于 01-08 10:58 ?869次閱讀

    三星發(fā)布Vision AI及Neo QLED旗艦電視

    近日,三星電子在1月6日正式對(duì)外發(fā)布了其備受矚目的Samsung Vision AI技術(shù)。這一創(chuàng)新技術(shù)旨在為用戶提供由先進(jìn)人工智能驅(qū)動(dòng)的個(gè)人屏幕體驗(yàn),開啟了智能家居與個(gè)性化交互的新篇章
    的頭像 發(fā)表于 01-07 10:36 ?708次閱讀

    微軟尋求在365 Copilot中引入非OpenAI模型

    擔(dān)心企業(yè)用戶在使用365 Copilot時(shí)面臨的成本和速度問題,因此正在尋求更多樣化的技術(shù)來源。盡管微軟與OpenAI之間有著緊密的合作關(guān)系,并允許微軟定制OpenAI的模型,但微軟
    的頭像 發(fā)表于 12-25 10:41 ?540次閱讀

    Meta發(fā)布AI模型Meta Motivo,旨在提升元宇宙體驗(yàn)

    Meta公司近日宣布,將推出一款名為Meta Motivo的全新人工智能模型。該模型具備控制類似人類的數(shù)字代理動(dòng)作的能力,有望為元宇宙的用戶體驗(yàn)帶來顯著提升。 Meta Motivo的發(fā)布
    的頭像 發(fā)表于 12-16 10:34 ?853次閱讀

    微軟預(yù)覽版Copilot Vision AI功能上線

    微軟公司近日宣布,將面向美國地區(qū)的Copilot Pro用戶推出預(yù)覽版的Copilot Vision AI功能。這一創(chuàng)新功能旨在通過人工智能技術(shù),進(jìn)一步提升用戶的網(wǎng)頁瀏覽體驗(yàn)。 Cop
    的頭像 發(fā)表于 12-09 14:38 ?552次閱讀

    AI干貨補(bǔ)給站04 | 工業(yè)AI視覺檢測(cè)項(xiàng)目實(shí)施第三步:模型構(gòu)建

    在當(dāng)今智能制造的浪潮中,AI視覺檢測(cè)技術(shù)憑借其高效、精準(zhǔn)的特性,已然成為提升產(chǎn)品質(zhì)量和生產(chǎn)效率的重要工具。為了助力從業(yè)者更好地理解和實(shí)施AI
    的頭像 發(fā)表于 11-29 01:04 ?584次閱讀
    <b class='flag-5'>AI</b>干貨補(bǔ)給站04 | 工業(yè)<b class='flag-5'>AI</b><b class='flag-5'>視覺</b>檢測(cè)項(xiàng)目實(shí)施第三步:<b class='flag-5'>模型</b>構(gòu)建

    用Ollama輕松搞定Llama 3.2 Vision模型本地部署

    Ollama的安裝。 一,Llama3.2 Vision簡介 Llama 3.2 Vision是一個(gè)多模態(tài)大型語言模型(LLMs)的集合,它包括預(yù)訓(xùn)練和指令調(diào)整的圖像推理生成模型,有兩
    的頭像 發(fā)表于 11-23 17:22 ?3495次閱讀
    用Ollama輕松搞定Llama 3.2 <b class='flag-5'>Vision</b><b class='flag-5'>模型</b>本地部署

    微軟發(fā)布Azure AI Foundry,推動(dòng)云服務(wù)增長

    。 Azure AI Foundry為用戶提供了一個(gè)更為便捷的平臺(tái),使得在支持人工智能的大型語言模型之間切換變得輕松自如。這一創(chuàng)新工具的發(fā)布,無疑將極大地降低AI應(yīng)用的開發(fā)門檻,進(jìn)一步
    的頭像 發(fā)表于 11-21 11:32 ?781次閱讀

    在英特爾酷睿Ultra7處理器上優(yōu)化和部署Phi-3-min模型

    2024年4月23日,微軟研究院公布Phi-3系列AI模型,包含三個(gè)版本:mini(3.8B參數(shù))、small(7B參數(shù))以及medium(14B參數(shù))。
    的頭像 發(fā)表于 08-30 16:58 ?1200次閱讀
    在英特爾酷睿Ultra7處理器上優(yōu)化和部署<b class='flag-5'>Phi-3</b>-min<b class='flag-5'>模型</b>

    聆思CSK6視覺語音大模型AI開發(fā)板入門資源合集(硬件資料、大模型語音/多模態(tài)交互/英語評(píng)測(cè)SDK合集)

    本帖最后由 jf_40317719 于 2024-6-18 17:39 編輯 視覺語音大模型 AI 開發(fā)套件( CSK6-MIX )是圍繞 CSK6011A 芯片設(shè)計(jì)的具備豐富語音圖像功能
    發(fā)表于 06-18 17:33