久久午夜网,久久综合色播,色拍拍综合网,婷婷激情五月


我國科學家建立生成式模型為醫(yī)學AI訓練提供技術(shù)支持

新華社北京12月17日電(記者魏夢佳)記者從北京大學未來技術(shù)學院獲悉,北京大學與溫州醫(yī)科大學的研究團隊建立一種生成式多模態(tài)跨器官醫(yī)學影像基礎(chǔ)模型(MINIM),可基于文本指令以及多器官的多種成像方式,合成海量的高質(zhì)量醫(yī)學影像數(shù)據(jù),為醫(yī)學影像大模型的訓練、精準醫(yī)療及個性化診療等提供有力技術(shù)支持。該成果已于近期在國際權(quán)威期刊《自然·醫(yī)學》上在線發(fā)表。

醫(yī)學影像大模型是利用深度學習和大規(guī)模數(shù)據(jù)訓練的AI通用模型,可自動分析醫(yī)學影像以輔助診斷和治療規(guī)劃。但要提升大模型的性能,就需要大量數(shù)據(jù)不斷進行訓練。然而,由于患者隱私保護、高昂的數(shù)據(jù)標注成本等多種因素,要獲得高質(zhì)量、多樣化的醫(yī)學影像數(shù)據(jù)往往存在障礙。為此,近年來,研究者們開始探索使用生成式AI技術(shù)合成醫(yī)學影像數(shù)據(jù),以此來擴充數(shù)據(jù)。

“目前公開的醫(yī)學影像數(shù)據(jù)非常有限,我們建立的生成式模型有望解決訓練數(shù)據(jù)不夠的問題?!北本┐髮W未來技術(shù)學院助理研究員王勁卓說,研究團隊利用多種器官在CT、X光、磁共振等不同成像方式下的高質(zhì)量影像文本配對數(shù)據(jù)進行訓練,最終生成海量的醫(yī)學合成影像,其在圖像特征、細節(jié)呈現(xiàn)等多方面都與真實醫(yī)學圖像高度一致。

實驗結(jié)果顯示,MINIM生成的合成數(shù)據(jù)在醫(yī)生主觀評測指標和多項客觀檢驗標準方面達國際領(lǐng)先水平,在臨床應(yīng)用中具有重要參考價值。在真實數(shù)據(jù)基礎(chǔ)上,使用20倍合成數(shù)據(jù)在眼科、胸科、腦科和乳腺科的多個醫(yī)學任務(wù)準確率平均可提升12%至17%。

王勁卓表示,MINIM產(chǎn)生的合成數(shù)據(jù)具有廣泛應(yīng)用前景,可單獨作為訓練集來構(gòu)建醫(yī)學影像大模型,也可與真實數(shù)據(jù)結(jié)合使用,提高模型在實際任務(wù)中的性能,推動AI在醫(yī)學和健康領(lǐng)域更廣泛應(yīng)用。目前,在疾病診斷、醫(yī)學報告生成和自監(jiān)督學習等關(guān)鍵領(lǐng)域,利用MINIM合成數(shù)據(jù)進行訓練已展現(xiàn)出顯著的性能提升。

德州新聞網(wǎng)版權(quán)與免責聲明:

①凡本網(wǎng)注明“來源:德州新聞網(wǎng)”的所有作品,版權(quán)均屬于德州新聞網(wǎng),未經(jīng)本網(wǎng)授權(quán)不得轉(zhuǎn)載、摘編或利用其它方式使用上述作品。已經(jīng)本網(wǎng)授權(quán)使用作品的,應(yīng)在授權(quán)范圍內(nèi)使用,并注明“來源: 德州新聞網(wǎng)”。違反上述聲明者,本網(wǎng)將追究其相關(guān)法律責任。

②凡本網(wǎng)注明“來源:XXX(非德州新聞網(wǎng))”的作品,均轉(zhuǎn)載自其它媒體,轉(zhuǎn)載目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點和對其真實性負責。

③鑒于本網(wǎng)發(fā)布稿件來源廣泛、數(shù)量較多,如因作者聯(lián)系方式不詳或其它原因未能與著作權(quán)擁有者取得聯(lián)系,著作權(quán)人發(fā)現(xiàn)本網(wǎng)轉(zhuǎn)載了其擁有著作權(quán)的作品時,請主動與本網(wǎng)聯(lián)系,提供相關(guān)證明材料,我網(wǎng)將及時處理。