0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

紐約大學(xué)與 NVIDIA 攜手開(kāi)發(fā)能夠預(yù)測(cè)患者再入院概率的大型語(yǔ)言模型

NVIDIA英偉達(dá) ? 來(lái)源:未知 ? 2023-06-14 18:35 ? 次閱讀

刊登在《自然》(Nature)上的 AI 模型 NYUTron 已被部署到紐約大學(xué)朗格尼健康中心。

從醫(yī)院出院對(duì)病人來(lái)說(shuō)是一座重要的里程碑,但有時(shí)這并不代表著他們已完全康復(fù)。在美國(guó),有近 15% 的住院病人在首次出院后 30 天內(nèi)再次入院,并且往往伴隨著病情惡化與對(duì)患者及院方來(lái)說(shuō)都更高的住院費(fèi)用。

紐約大學(xué)學(xué)術(shù)醫(yī)療中心——紐約大學(xué)朗格尼健康中心(NYU Langone Health)的研究人員與 NVIDIA 專家攜手開(kāi)發(fā)了一個(gè)可預(yù)測(cè)病人 30 天內(nèi)再入院風(fēng)險(xiǎn)以及其他臨床結(jié)果的大型語(yǔ)言模型(LLM)。

這個(gè)刊登在科學(xué)期刊《自然》(Nature)上的 NYUTron 模型被部署在該醫(yī)療系統(tǒng)的六座住院樓中。它能夠?yàn)獒t(yī)生提供 AI 所驅(qū)動(dòng)的洞察,幫助他們識(shí)別需要通過(guò)臨床干預(yù)的病人,以減少患者再入院概率。

紐約大學(xué)格羅斯曼醫(yī)學(xué)院放射學(xué)和神經(jīng)外科助理教授、NYUTron 的主要合作者 Eric Oermann 博士表示:“當(dāng)你讓病人出院時(shí),肯定不希望他們需要再回來(lái),或者其實(shí)在當(dāng)時(shí)就應(yīng)該延長(zhǎng)病人的住院時(shí)間。借助 AI 模型的分析,我們很快就能幫助臨床醫(yī)生預(yù)防或解決那些使病人面臨更高再入院風(fēng)險(xiǎn)的情況?!?/p>

到目前為止,該模型已被應(yīng)用于紐約大學(xué)醫(yī)療系統(tǒng)中的 5 萬(wàn)多名出院患者。它會(huì)通過(guò)電子郵件告知醫(yī)生再入院風(fēng)險(xiǎn)的預(yù)測(cè)。Oermann 的團(tuán)隊(duì)接下來(lái)正計(jì)劃通過(guò)一項(xiàng)臨床試驗(yàn),測(cè)試依據(jù) NYUTron 的分析所采取的干預(yù)措施是否能夠降低再入院率。

應(yīng)對(duì)短期再入院等風(fēng)險(xiǎn)

美國(guó)政府追蹤 30 日再入院率并以此作為醫(yī)院的護(hù)理質(zhì)量指標(biāo)。再入院率高的醫(yī)療機(jī)構(gòu)會(huì)被處以罰款,這項(xiàng)制度能夠激勵(lì)醫(yī)院改進(jìn)其出院流程。

新出院的病人可能會(huì)因?yàn)楦腥?、過(guò)度使用抗生素、過(guò)早移除手術(shù)引流管等原因而需要再入院。如果這些風(fēng)險(xiǎn)因素能夠被更早地發(fā)現(xiàn),醫(yī)生就可以通過(guò)調(diào)整治療計(jì)劃或延長(zhǎng)病人留院觀察時(shí)間來(lái)進(jìn)行干預(yù)。

Oermann 表示:“雖然自 20 世紀(jì) 80 年代以來(lái)就有了預(yù)測(cè)病人再入院的計(jì)算模型,但我們把它看作一項(xiàng)需要衛(wèi)生系統(tǒng)規(guī)模臨床文本語(yǔ)料庫(kù)的自然語(yǔ)言處理任務(wù)。我們使用電子健康記錄的非結(jié)構(gòu)化數(shù)據(jù)訓(xùn)練我們的 LLM,檢查它是否能夠捕捉到人們之前沒(méi)有考慮過(guò)的洞察。”

NYUTron 使用紐約大學(xué)朗格尼健康中心的 10 年健康記錄進(jìn)行了預(yù)訓(xùn)練。這些記錄由近 40 萬(wàn)名病人超過(guò) 40 億字的臨床筆記組成。相比最先進(jìn)的機(jī)器學(xué)習(xí)模型,該模型預(yù)測(cè)再入院的準(zhǔn)確率提高了 10% 以上。

一旦該 LLM 為 30 天再入院的初始用例進(jìn)行了訓(xùn)練,該團(tuán)隊(duì)就能在一周左右的時(shí)間里推出了其他四種預(yù)測(cè)算法,包括預(yù)測(cè)病人的住院時(shí)間、院內(nèi)死亡的可能性以及病人保險(xiǎn)理賠被拒的幾率。

Oermann 表示:“經(jīng)營(yíng)一家醫(yī)院在某些方面就像管理一家酒店。能夠幫助醫(yī)院更高效運(yùn)營(yíng)的洞察意味著醫(yī)院能夠騰出更多床位并為更多病人提供更高質(zhì)量的照護(hù)。”

從訓(xùn)練到部署一個(gè) LLM

NYUTron 是一個(gè)擁有數(shù)億參數(shù)的 LLM。它在一個(gè)由NVIDIA A100 Tensor Core GPU 組成的大型集群上使用 NVIDIA NeMo Megatron 框架訓(xùn)練而成。

Oermann 表示:“如今,大部分關(guān)于語(yǔ)言模型的討論都圍繞著具有數(shù)十億參數(shù)的超大型通用模型,這些模型使用數(shù)百乃至數(shù)千個(gè) GPU 在混亂的數(shù)據(jù)集上訓(xùn)練而成。我們反其道而行之,使用在高度精煉的數(shù)據(jù)上訓(xùn)練的中等規(guī)模的模型來(lái)完成特定醫(yī)療任務(wù)。”

為了優(yōu)化模型以便在現(xiàn)實(shí)醫(yī)院進(jìn)行推理,該團(tuán)隊(duì)開(kāi)發(fā)了一個(gè)修改版的NVIDIA Triton 開(kāi)源軟件,以便利用NVIDIA TensorRT 軟件開(kāi)發(fā)工具套件簡(jiǎn)化 AI 模型部署。

Oermann 表示:“像這樣的模型必須要高效運(yùn)行才能被部署到實(shí)時(shí)醫(yī)療環(huán)境中。Triton 提供了你在一個(gè)推理框架中想要的一切,讓我們的模型能夠飛速運(yùn)行?!?/p>

Oermann 的團(tuán)隊(duì)發(fā)現(xiàn),在對(duì)他們的 LLM 進(jìn)行預(yù)訓(xùn)練后,只需使用特定醫(yī)院的數(shù)據(jù)在現(xiàn)場(chǎng)進(jìn)行微調(diào)就能大幅提高準(zhǔn)確率,這個(gè)特點(diǎn)可以幫助其他醫(yī)療機(jī)構(gòu)部署類似的模型。

他表示:“并不是所有醫(yī)院都擁有完全自主訓(xùn)練一個(gè)大型語(yǔ)言模型所需要的資源,但他們可以采用像 NYUTron 這樣的預(yù)訓(xùn)練模型,然后通過(guò)云端的 GPU 使用少量本地?cái)?shù)據(jù)樣本對(duì)模型進(jìn)行微調(diào)。這對(duì)于許多醫(yī)療機(jī)構(gòu)來(lái)說(shuō)都是可以做到的?!?/p>

如要進(jìn)一步了解 NYUTron,請(qǐng)閱讀《自然》期刊中的論文。點(diǎn)擊“閱讀原文”,點(diǎn)播觀看 NVIDIA 與紐約大學(xué)的相關(guān)講座。

掃描下方海報(bào)二維碼,觀看 NVIDIA 創(chuàng)始人兼 CEO 黃仁勛在 COMPUTEX 2023 的主題演講直播回放,主題演講中文字幕版已上線,了解 AI、圖形及其他領(lǐng)域的最新進(jìn)展!


原文標(biāo)題:紐約大學(xué)與 NVIDIA 攜手開(kāi)發(fā)能夠預(yù)測(cè)患者再入院概率的大型語(yǔ)言模型

文章出處:【微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3637

    瀏覽量

    89871

原文標(biāo)題:紐約大學(xué)與 NVIDIA 攜手開(kāi)發(fā)能夠預(yù)測(cè)患者再入院概率的大型語(yǔ)言模型

文章出處:【微信號(hào):NVIDIA_China,微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    NVIDIA CorrDiff生成式AI模型能夠精準(zhǔn)預(yù)測(cè)臺(tái)風(fēng)

    NVIDIA GPU 上運(yùn)行的一個(gè)擴(kuò)散模型向天氣預(yù)報(bào)工作者展示了加速計(jì)算如何實(shí)現(xiàn)新的用途并提升能效。
    的頭像 發(fā)表于 09-13 17:13 ?426次閱讀

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    的表達(dá)方式和生成能力。通過(guò)預(yù)測(cè)文本中缺失的部分或下一個(gè)詞,模型逐漸掌握語(yǔ)言的規(guī)律和特征。 常用的模型結(jié)構(gòu) Transformer架構(gòu):大語(yǔ)言
    發(fā)表于 08-02 11:03

    富士通與Cohere合作,專注于開(kāi)發(fā)和提供大型語(yǔ)言模型(LLM)

    富士通(Fujitsu)與總部位于多倫多與舊金山的頂尖安全及數(shù)據(jù)隱私人工智能企業(yè)Cohere Inc.攜手宣布建立深度戰(zhàn)略合作伙伴關(guān)系,共同致力于大型語(yǔ)言模型(LLM)的創(chuàng)新與
    的頭像 發(fā)表于 07-16 16:55 ?378次閱讀

    NVIDIA與百度飛槳攜手革新汽車(chē)風(fēng)阻預(yù)測(cè):DNNFluid-Car模型的崛起

    在追求更高效、更環(huán)保的汽車(chē)設(shè)計(jì)浪潮中,NVIDIA與百度飛槳攜手突破傳統(tǒng)界限,共同研發(fā)了一款革命性的3D高精度汽車(chē)風(fēng)阻預(yù)測(cè)模型——DNNFluid-Car。這款
    的頭像 發(fā)表于 07-09 14:56 ?1365次閱讀

    英偉達(dá)開(kāi)源Nemotron-4 340B系列模型,助力大型語(yǔ)言模型訓(xùn)練

    近日,英偉達(dá)宣布開(kāi)源了一款名為Nemotron-4 340B的大型模型,這一壯舉為開(kāi)發(fā)者們打開(kāi)了通往高性能大型語(yǔ)言模型(LLM)訓(xùn)練的新天地
    的頭像 發(fā)表于 06-17 14:53 ?432次閱讀

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的應(yīng)用

    能力,它缺乏真正的“思考”過(guò)程。對(duì)于任何輸入,大語(yǔ)言模型都會(huì)產(chǎn)生輸出,但這僅僅是基于計(jì)算和預(yù)測(cè)下一個(gè)Token出現(xiàn)的概率。模型并不清楚自己的
    發(fā)表于 05-07 17:21

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的基礎(chǔ)技術(shù)

    的特征,并且這些特征融合了這些詞在當(dāng)前序列的上下文語(yǔ)義,因此能夠解決一詞多義的問(wèn)題。憑借這種優(yōu)勢(shì),基于動(dòng)態(tài)詞向量語(yǔ)言模型進(jìn)行預(yù)訓(xùn)練的方法被廣泛應(yīng)用于自然語(yǔ)言處理任務(wù)中。 經(jīng)典結(jié)構(gòu)
    發(fā)表于 05-05 12:17

    【大語(yǔ)言模型:原理與工程實(shí)踐】揭開(kāi)大語(yǔ)言模型的面紗

    獲得良好效果。 語(yǔ)言模型作為自然語(yǔ)言處理的核心,不斷進(jìn)化以捕捉人類語(yǔ)言的精髓。起初,這些模型依賴于統(tǒng)計(jì)方法,如n-gram
    發(fā)表于 05-04 23:55

    NVIDIA加速微軟最新的Phi-3 Mini開(kāi)源語(yǔ)言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開(kāi)源語(yǔ)言模型。TensorRT-LLM 是一個(gè)開(kāi)源庫(kù),用于優(yōu)化從 PC 到云端的
    的頭像 發(fā)表于 04-28 10:36 ?393次閱讀

    韓國(guó)Kakao宣布開(kāi)發(fā)多模態(tài)大語(yǔ)言模型“蜜蜂”

    韓國(guó)互聯(lián)網(wǎng)巨頭Kakao最近宣布開(kāi)發(fā)了一種名為“蜜蜂”(Honeybee)的多模態(tài)大型語(yǔ)言模型。這種創(chuàng)新模型
    的頭像 發(fā)表于 01-19 16:11 ?548次閱讀

    LabVIEW進(jìn)行癌癥預(yù)測(cè)模型研究

    ,然后將得到的特征向量輸入到SVM中進(jìn)行分類。 LabVIEW是一種視覺(jué)編程語(yǔ)言,與傳統(tǒng)的文本編程語(yǔ)言不同,更適合于進(jìn)行復(fù)雜數(shù)據(jù)分析和預(yù)測(cè)模型開(kāi)發(fā)
    發(fā)表于 12-13 19:04

    探索高效的大型語(yǔ)言模型!大型語(yǔ)言模型的高效學(xué)習(xí)方法

    大型語(yǔ)言模型(LLMs)的應(yīng)用中,提示工程(Prompt Engineering)是一種關(guān)鍵技術(shù),用于引導(dǎo)模型生成特定輸出或執(zhí)行特定任務(wù)。通過(guò)精心設(shè)計(jì)的提示,可以顯著提高LLMs的性
    發(fā)表于 12-13 14:21 ?512次閱讀
    探索高效的<b class='flag-5'>大型</b><b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>!<b class='flag-5'>大型</b><b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>的高效學(xué)習(xí)方法

    NVIDIA 為部分大型亞馬遜 Titan 基礎(chǔ)模型提供訓(xùn)練支持

    本文將介紹亞馬遜如何使用 NVIDIA NeMo 框架、GPU 以及亞馬遜云科技的 EFA 來(lái)訓(xùn)練其 最大的新一代大語(yǔ)言模型(LLM)。 大語(yǔ)言模型
    的頭像 發(fā)表于 11-29 21:15 ?457次閱讀
    <b class='flag-5'>NVIDIA</b> 為部分<b class='flag-5'>大型</b>亞馬遜 Titan 基礎(chǔ)<b class='flag-5'>模型</b>提供訓(xùn)練支持

    研討會(huì)回顧:NVIDIA 助力汽車(chē)行業(yè)大語(yǔ)言模型創(chuàng)新與發(fā)展

    10 月 28 日,汽車(chē)行業(yè)大語(yǔ)言模型研討會(huì)正式結(jié)束。 NVIDIA 解決方案架構(gòu)師陳文愷 在研討會(huì)中講解了 汽車(chē)行業(yè)如何開(kāi)發(fā)企業(yè)級(jí)大語(yǔ)言
    的頭像 發(fā)表于 11-03 19:10 ?671次閱讀

    現(xiàn)已公開(kāi)發(fā)布!歡迎使用 NVIDIA TensorRT-LLM 優(yōu)化大語(yǔ)言模型推理

    NVIDIA 于 2023 年 10 月 19 日公開(kāi)發(fā)布 TensorRT-LLM ,可在 NVIDIA GPU 上加速和優(yōu)化最新的大語(yǔ)言模型
    的頭像 發(fā)表于 10-27 20:05 ?805次閱讀
    現(xiàn)已公<b class='flag-5'>開(kāi)發(fā)</b>布!歡迎使用 <b class='flag-5'>NVIDIA</b> TensorRT-LLM 優(yōu)化大<b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>推理