Skip to main content

Search: #医疗AI

  1. 医疗 AI 也会被误导——研究提示“像病历的错误信息”最危险

    大模型正越来越多地被用于问诊分诊、病历总结和医学问答。但如果错误信息被包装得足够“像真的”,它们会不会照单全收?这项发表于 The Lancet Digital Health 的横断面基准研究,系统测试了 LLM 在医疗虚假信息面前的脆弱性。

    研究团队评估了 20 个大语言模型,在 340 万条含医学错误信息的提示词中测试其易感性,错误信息来自社交媒体、临床笔记和模拟病例三类场景。结果显示,整体有 31.7% 的基础提示会让模型接受错误信息;其中临床笔记场景最危险,易感率高达 46.1%,显著高于社交媒体场景的 8.9%。不同模型表现差异明显,GPT-4 抗误导能力更强,而部分小模型和医学微调模型反而更容易“中招”。

    这项研究最重要的提醒不是“模型不行”,而是医疗 AI 的部署不能只看答得像不像,还要看它在被误导时能否守住底线。未来真正关键的,可能是事实锚定、来源校验和上下文防御机制,而不是单纯更大的参数规模。

    不是 AI 太笨,而是假病历太像真的——穿白大褂的谣言果然更危险。🩺🤖
    📄 The Lancet Digital Health

    #医疗AI #大语言模型 #医学虚假信息 #柳叶刀 #临床安全

    🧬 频道🧑‍🔬 群组📨 投稿
    🌚 5 ❤️ 2
  2. 🤖 ChatGPT Health"体检不合格":紧急与不紧急情况易出错,漏诊风险高

    随着AI健康助手越来越普及,我们是否应该相信它能准确判断是否需要紧急就医?一项新研究对ChatGPT Health进行了严格测试,结果却揭示了令人担忧的漏洞。

    研究团队模拟了960个临床场景,发现系统在处理极端情况时表现最差。比如,对于糖尿病酮症酸中毒等紧急情况,系统竟有52%的漏诊率,建议患者等待24-48小时,而非立即去急诊。更奇怪的是,当家人或朋友淡化症状时,AI的分诊建议会显著偏向不紧急,风险比高达11.7倍。此外,在处理自杀意念时,危机干预信息有时会错误激活。

    这些发现表明,AI分诊系统在真实世界应用中可能存在严重的安全隐患。虽然患者种族、性别等因素未显著影响结果,但置信区间未排除临床意义差异,意味着仍需更多研究。研究警告,在缺乏充分验证前,不应将此类系统大规模用于消费者健康服务。

    AI分诊也怕极端情况,紧急和没病都容易搞错🤯


    来源:Nature medicine

    #AI医疗 #分诊系统 #ChatGPT #健康助手 #医疗AI #安全风险

    via: 热心群友

    🧬 频道🧑‍🔬 群组📨 投稿
  3. 可穿戴AI设备实现斜视“一键”诊断?新方法或改变传统检查方式

    斜视是影响约4%儿童的常见问题,不仅损害视力,还可能引发心理困扰。传统诊断需多种仪器,步骤繁琐,儿童难以配合,成本也较高。一项新研究提出了一种AI集成的可穿戴设备,可能让诊断更简单。

    该设备像皮肤一样轻薄(约60微米厚),佩戴在眼睑上,通过多方向应变传感器测量眼睑变形。结合生物力学模型和AI算法,能同时测量斜视角度并识别受影响的肌肉。研究显示,其四方向分类准确率达96.6%,测量精度为1.2度,与临床标准高度一致。

    这项技术将生物力学传感与数字诊断结合,可能提高诊断客观性,降低成本,尤其对儿童友好。不过,目前研究主要基于儿童样本,且仍需更多临床验证,以确定是否适用于所有斜视类型。

    斜视检查终于不用再被仪器“折磨”啦!🤩


    来源:Science advances

    #斜视诊断 #可穿戴设备 #人工智能 #儿童视力 #医疗科技

    🧬 频道🧑‍🔬 群组📨 投稿
    ❤️ 5