Skip to main content

Search: #AI医疗

  1. AI生成X片已经能以假乱真?

    随着AI技术的发展,用大语言模型(LLM)生成逼真的合成医疗影像(即“深度伪造”或deepfake)已成为现实。这给医疗诊断带来了潜在风险,比如可能被用于误导诊断。一项新研究评估了放射科医生和多种大语言模型(LLMs)能否区分由ChatGPT生成的合成X光片与真实的临床影像。

    研究团队邀请了17位来自不同国家的放射科医生,评估了154张影像(77张合成,77张真实)。结果显示,在不知情的情况下,41%的医生能识别出AI生成的影像。当医生被告知部分影像是合成的后,他们的准确率约为70%至75%,但不同医生之间差异不大。在LLMs测试中,GPT-4o和GPT-5能以85%和83%的准确率区分合成影像,而Llama 4和Gemini的准确率仅为59%和56%。合成影像的常见特征包括双侧对称、均匀的噪声或颗粒,以及过于平滑的软组织纹理和骨骼表面。

    研究结论指出,无论是放射科医生还是当前的大语言模型,都难以轻易区分AI生成的合成影像与真实影像。这凸显了在医疗领域识别和防范深度伪造技术的紧迫性。研究强调,为应对这一挑战,需要加强对医生和LLMs的培训,并利用像DeepFakeXRay这样的专用数据集。不过,研究也指出,样本量或模型版本可能影响结果,未来仍需更多研究来验证这些发现。

    放射科医生也怕“AI画”的X光片?😅


    来源:Radiology

    #AI医疗 #合成影像 #放射诊断 #Deepfake #大语言模型

    via: 热心群友

    🧬 频道🧑‍🔬 群组📨 投稿
    ❤️ 5 🤔 5
  2. 🤖 ChatGPT Health"体检不合格":紧急与不紧急情况易出错,漏诊风险高

    随着AI健康助手越来越普及,我们是否应该相信它能准确判断是否需要紧急就医?一项新研究对ChatGPT Health进行了严格测试,结果却揭示了令人担忧的漏洞。

    研究团队模拟了960个临床场景,发现系统在处理极端情况时表现最差。比如,对于糖尿病酮症酸中毒等紧急情况,系统竟有52%的漏诊率,建议患者等待24-48小时,而非立即去急诊。更奇怪的是,当家人或朋友淡化症状时,AI的分诊建议会显著偏向不紧急,风险比高达11.7倍。此外,在处理自杀意念时,危机干预信息有时会错误激活。

    这些发现表明,AI分诊系统在真实世界应用中可能存在严重的安全隐患。虽然患者种族、性别等因素未显著影响结果,但置信区间未排除临床意义差异,意味着仍需更多研究。研究警告,在缺乏充分验证前,不应将此类系统大规模用于消费者健康服务。

    AI分诊也怕极端情况,紧急和没病都容易搞错🤯


    来源:Nature medicine

    #AI医疗 #分诊系统 #ChatGPT #健康助手 #医疗AI #安全风险

    via: 热心群友

    🧬 频道🧑‍🔬 群组📨 投稿
  3. AI模型GluFormer能精准预测血糖风险,甚至心血管死亡?

    我们每天通过连续血糖监测(CGM)了解血糖波动,但如何更早发现潜在的健康风险?一项新研究提出AI模型GluFormer,它通过分析大量血糖数据,能预测未来血糖变化和疾病风险。

    研究人员训练了GluFormer模型,使用超过1000万份来自10812名(主要是无糖尿病者)的血糖测量数据。该模型通过自监督学习,能跨不同人群、设备和病理状态(如糖尿病前期、肥胖等)进行预测。例如,在糖尿病前期人群中,它能区分出未来两年HbA1c显著升高的个体;在580名参与者的长期随访中,模型识别出最高风险四分位的个体中,66%发生了糖尿病,而心血管死亡也多集中在该组。

    这一发现表明GluFormer为代谢健康提供了通用框架,可能推动精准医疗。不过研究主要基于非糖尿病人群,且模型性能仍需更多验证,未来结合饮食数据预测血糖反应也值得期待。

    AI终于懂我的血糖了?🤖


    来源:Nature

    #AI模型 #血糖监测 #糖尿病预测 #精准医疗

    🧬 频道🧑‍🔬 群组📨 投稿
    👍 7 ❤️ 2