女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

紐約大學與 NVIDIA 攜手開發(fā)能夠預(yù)測患者再入院概率的大型語言模型

NVIDIA英偉達 ? 來源:未知 ? 2023-06-14 18:35 ? 次閱讀

刊登在《自然》(Nature)上的 AI 模型 NYUTron 已被部署到紐約大學朗格尼健康中心

從醫(yī)院出院對病人來說是一座重要的里程碑,但有時這并不代表著他們已完全康復(fù)。在美國,有近 15% 的住院病人在首次出院后 30 天內(nèi)再次入院,并且往往伴隨著病情惡化與對患者及院方來說都更高的住院費用。

紐約大學學術(shù)醫(yī)療中心——紐約大學朗格尼健康中心(NYU Langone Health)的研究人員與 NVIDIA 專家攜手開發(fā)了一個可預(yù)測病人 30 天內(nèi)再入院風險以及其他臨床結(jié)果的大型語言模型(LLM)。

這個刊登在科學期刊《自然》(Nature)上的 NYUTron 模型被部署在該醫(yī)療系統(tǒng)的六座住院樓中。它能夠為醫(yī)生提供 AI 所驅(qū)動的洞察,幫助他們識別需要通過臨床干預(yù)的病人,以減少患者再入院概率。

紐約大學格羅斯曼醫(yī)學院放射學和神經(jīng)外科助理教授、NYUTron 的主要合作者 Eric Oermann 博士表示:“當你讓病人出院時,肯定不希望他們需要再回來,或者其實在當時就應(yīng)該延長病人的住院時間。借助 AI 模型的分析,我們很快就能幫助臨床醫(yī)生預(yù)防或解決那些使病人面臨更高再入院風險的情況。”

到目前為止,該模型已被應(yīng)用于紐約大學醫(yī)療系統(tǒng)中的 5 萬多名出院患者。它會通過電子郵件告知醫(yī)生再入院風險的預(yù)測。Oermann 的團隊接下來正計劃通過一項臨床試驗,測試依據(jù) NYUTron 的分析所采取的干預(yù)措施是否能夠降低再入院率。

應(yīng)對短期再入院等風險

美國政府追蹤 30 日再入院率并以此作為醫(yī)院的護理質(zhì)量指標。再入院率高的醫(yī)療機構(gòu)會被處以罰款,這項制度能夠激勵醫(yī)院改進其出院流程。

新出院的病人可能會因為感染、過度使用抗生素、過早移除手術(shù)引流管等原因而需要再入院。如果這些風險因素能夠被更早地發(fā)現(xiàn),醫(yī)生就可以通過調(diào)整治療計劃或延長病人留院觀察時間來進行干預(yù)。

Oermann 表示:“雖然自 20 世紀 80 年代以來就有了預(yù)測病人再入院的計算模型,但我們把它看作一項需要衛(wèi)生系統(tǒng)規(guī)模臨床文本語料庫的自然語言處理任務(wù)。我們使用電子健康記錄的非結(jié)構(gòu)化數(shù)據(jù)訓練我們的 LLM,檢查它是否能夠捕捉到人們之前沒有考慮過的洞察。”

NYUTron 使用紐約大學朗格尼健康中心的 10 年健康記錄進行了預(yù)訓練。這些記錄由近 40 萬名病人超過 40 億字的臨床筆記組成。相比最先進的機器學習模型,該模型預(yù)測再入院的準確率提高了 10% 以上。

一旦該 LLM 為 30 天再入院的初始用例進行了訓練,該團隊就能在一周左右的時間里推出了其他四種預(yù)測算法,包括預(yù)測病人的住院時間、院內(nèi)死亡的可能性以及病人保險理賠被拒的幾率。

Oermann 表示:“經(jīng)營一家醫(yī)院在某些方面就像管理一家酒店。能夠幫助醫(yī)院更高效運營的洞察意味著醫(yī)院能夠騰出更多床位并為更多病人提供更高質(zhì)量的照護。”

從訓練到部署一個 LLM

NYUTron 是一個擁有數(shù)億參數(shù)的 LLM。它在一個由NVIDIA A100 Tensor Core GPU 組成的大型集群上使用 NVIDIA NeMo Megatron 框架訓練而成。

Oermann 表示:“如今,大部分關(guān)于語言模型的討論都圍繞著具有數(shù)十億參數(shù)的超大型通用模型,這些模型使用數(shù)百乃至數(shù)千個 GPU 在混亂的數(shù)據(jù)集上訓練而成。我們反其道而行之,使用在高度精煉的數(shù)據(jù)上訓練的中等規(guī)模的模型來完成特定醫(yī)療任務(wù)。”

為了優(yōu)化模型以便在現(xiàn)實醫(yī)院進行推理,該團隊開發(fā)了一個修改版的NVIDIA Triton 開源軟件,以便利用NVIDIA TensorRT 軟件開發(fā)工具套件簡化 AI 模型部署。

Oermann 表示:“像這樣的模型必須要高效運行才能被部署到實時醫(yī)療環(huán)境中。Triton 提供了你在一個推理框架中想要的一切,讓我們的模型能夠飛速運行。”

Oermann 的團隊發(fā)現(xiàn),在對他們的 LLM 進行預(yù)訓練后,只需使用特定醫(yī)院的數(shù)據(jù)在現(xiàn)場進行微調(diào)就能大幅提高準確率,這個特點可以幫助其他醫(yī)療機構(gòu)部署類似的模型。

他表示:“并不是所有醫(yī)院都擁有完全自主訓練一個大型語言模型所需要的資源,但他們可以采用像 NYUTron 這樣的預(yù)訓練模型,然后通過云端的 GPU 使用少量本地數(shù)據(jù)樣本對模型進行微調(diào)。這對于許多醫(yī)療機構(gòu)來說都是可以做到的。”

如要進一步了解 NYUTron,請閱讀《自然》期刊中的論文。點擊“閱讀原文”,點播觀看 NVIDIA 與紐約大學的相關(guān)講座。

掃描下方海報二維碼觀看 NVIDIA 創(chuàng)始人兼 CEO 黃仁勛在 COMPUTEX 2023 的主題演講直播回放,主題演講中文字幕版已上線,了解 AI、圖形及其他領(lǐng)域的最新進展!


原文標題:紐約大學與 NVIDIA 攜手開發(fā)能夠預(yù)測患者再入院概率的大型語言模型

文章出處:【微信公眾號:NVIDIA英偉達】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英偉達
    +關(guān)注

    關(guān)注

    22

    文章

    3920

    瀏覽量

    93088

原文標題:紐約大學與 NVIDIA 攜手開發(fā)能夠預(yù)測患者再入院概率的大型語言模型

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    小白學大模型:從零實現(xiàn) LLM語言模型

    在當今人工智能領(lǐng)域,大型語言模型(LLM)的開發(fā)已經(jīng)成為一個熱門話題。這些模型通過學習大量的文本數(shù)據(jù),
    的頭像 發(fā)表于 04-30 18:34 ?305次閱讀
    小白學大<b class='flag-5'>模型</b>:從零實現(xiàn) LLM<b class='flag-5'>語言</b><b class='flag-5'>模型</b>

    AI大語言模型開發(fā)步驟

    開發(fā)一個高效、準確的大語言模型是一個復(fù)雜且多階段的過程,涉及數(shù)據(jù)收集與預(yù)處理、模型架構(gòu)設(shè)計、訓練與優(yōu)化、評估與調(diào)試等多個環(huán)節(jié)。接下來,AI部落小編為大家詳細闡述AI大
    的頭像 發(fā)表于 12-19 11:29 ?711次閱讀

    NVIDIA預(yù)測2025年AI行業(yè)發(fā)展

    NVIDIA 加速計算、數(shù)據(jù)科學和研究領(lǐng)域?qū)<?b class='flag-5'>預(yù)測,多模態(tài)模型將推動行業(yè)創(chuàng)新和效率提升。
    的頭像 發(fā)表于 12-18 13:49 ?996次閱讀

    NaVILA:加州大學與英偉達聯(lián)合發(fā)布新型視覺語言模型

    日前,加州大學的研究人員攜手英偉達,共同推出了一款創(chuàng)新的視覺語言模型——NaVILA。該模型在機器人導(dǎo)航領(lǐng)域展現(xiàn)出了獨特的應(yīng)用潛力,為智能機
    的頭像 發(fā)表于 12-13 10:51 ?589次閱讀

    語言模型開發(fā)框架是什么

    語言模型開發(fā)框架是指用于訓練、推理和部署大型語言模型的軟件工具和庫。下面,AI部落小編為您介紹
    的頭像 發(fā)表于 12-06 10:28 ?451次閱讀

    語言模型開發(fā)語言是什么

    在人工智能領(lǐng)域,大語言模型(Large Language Models, LLMs)背后,離不開高效的開發(fā)語言和工具的支持。下面,AI部落小編為您介紹大
    的頭像 發(fā)表于 12-04 11:44 ?580次閱讀

    云端語言模型開發(fā)方法

    云端語言模型開發(fā)是一個復(fù)雜而系統(tǒng)的過程,涉及數(shù)據(jù)準備、模型選擇、訓練優(yōu)化、部署應(yīng)用等多個環(huán)節(jié)。下面,AI部落小編為您分享云端語言
    的頭像 發(fā)表于 12-02 10:48 ?593次閱讀

    語言模型如何開發(fā)

    語言模型開發(fā)是一個復(fù)雜且細致的過程,涵蓋了數(shù)據(jù)準備、模型架構(gòu)設(shè)計、訓練、微調(diào)和部署等多個階段。以下是對大語言
    的頭像 發(fā)表于 11-04 10:14 ?512次閱讀

    如何利用大型語言模型驅(qū)動的搜索為公司創(chuàng)造價值

    大型語言模型LLMs具有自動化內(nèi)容創(chuàng)建、提高內(nèi)容質(zhì)量及多樣化的潛力,可重塑企業(yè)與信息的交互方式。通過利用LLMs,企業(yè)能提升工作效率,降低運營成本,并獲得深入洞察。來自EgeGürdeniz
    的頭像 發(fā)表于 10-13 08:07 ?350次閱讀
    如何利用<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>驅(qū)動的搜索為公司創(chuàng)造價值

    NVIDIA CorrDiff生成式AI模型能夠精準預(yù)測臺風

    NVIDIA GPU 上運行的一個擴散模型向天氣預(yù)報工作者展示了加速計算如何實現(xiàn)新的用途并提升能效。
    的頭像 發(fā)表于 09-13 17:13 ?1116次閱讀

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)知識學習

    的表達方式和生成能力。通過預(yù)測文本中缺失的部分或下一個詞,模型逐漸掌握語言的規(guī)律和特征。 常用的模型結(jié)構(gòu) Transformer架構(gòu):大語言
    發(fā)表于 08-02 11:03

    Mistral AI與NVIDIA推出全新語言模型Mistral NeMo 12B

    Mistral AI 和 NVIDIA 于近日共同發(fā)布了一款全新的領(lǐng)先語言模型Mistral NeMo 12B。開發(fā)者可以輕松定制和部署該模型
    的頭像 發(fā)表于 07-27 11:04 ?1048次閱讀

    富士通與Cohere合作,專注于開發(fā)和提供大型語言模型(LLM)

    富士通(Fujitsu)與總部位于多倫多與舊金山的頂尖安全及數(shù)據(jù)隱私人工智能企業(yè)Cohere Inc.攜手宣布建立深度戰(zhàn)略合作伙伴關(guān)系,共同致力于大型語言模型(LLM)的創(chuàng)新與
    的頭像 發(fā)表于 07-16 16:55 ?733次閱讀

    NVIDIA與百度飛槳攜手革新汽車風阻預(yù)測:DNNFluid-Car模型的崛起

    在追求更高效、更環(huán)保的汽車設(shè)計浪潮中,NVIDIA與百度飛槳攜手突破傳統(tǒng)界限,共同研發(fā)了一款革命性的3D高精度汽車風阻預(yù)測模型——DNNFluid-Car。這款
    的頭像 發(fā)表于 07-09 14:56 ?2066次閱讀

    英偉達開源Nemotron-4 340B系列模型,助力大型語言模型訓練

    近日,英偉達宣布開源了一款名為Nemotron-4 340B的大型模型,這一壯舉為開發(fā)者們打開了通往高性能大型語言模型(LLM)訓練的新天地
    的頭像 發(fā)表于 06-17 14:53 ?826次閱讀