<?xml version="1.0" encoding="UTF-8"?><?xml-stylesheet href="/rss.xsl" type="text/xsl"?><rss version="2.0" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>大语言模型 | 知识分享官</title><description>你当然会幸福、强大、所向披靡。</description><link>https://sk.88lin.eu.org</link><item><title>AI生成X片已经能以假乱真？随着AI技术的发展，用大语言模型（LLM）生成逼真的合成医疗影像（即“深度伪造”或deepfake）已成为现实</title><link>https://sk.88lin.eu.org/posts/CNSmydream-1028</link><guid isPermaLink="true">https://sk.88lin.eu.org/posts/CNSmydream-1028</guid><pubDate>Fri, 03 Apr 2026 05:00:39 GMT</pubDate><content:encoded>&lt;b&gt;AI生成X片已经能以假乱真？&lt;/b&gt;&lt;br /&gt;&lt;br /&gt;随着AI技术的发展，用大语言模型（LLM）生成逼真的合成医疗影像（即“深度伪造”或deepfake）已成为现实。这给医疗诊断带来了潜在风险，比如可能被用于误导诊断。一项新研究评估了放射科医生和多种大语言模型（LLMs）能否区分由ChatGPT生成的合成X光片与真实的临床影像。&lt;br /&gt;&lt;br /&gt;研究团队邀请了17位来自不同国家的放射科医生，评估了154张影像（77张合成，77张真实）。结果显示，在不知情的情况下，41%的医生能识别出AI生成的影像。当医生被告知部分影像是合成的后，他们的准确率约为70%至75%，但不同医生之间差异不大。在LLMs测试中，GPT-4o和GPT-5能以85%和83%的准确率区分合成影像，而Llama 4和Gemini的准确率仅为59%和56%。合成影像的常见特征包括双侧对称、均匀的噪声或颗粒，以及过于平滑的软组织纹理和骨骼表面。&lt;br /&gt;&lt;br /&gt;研究结论指出，无论是放射科医生还是当前的大语言模型，都难以轻易区分AI生成的合成影像与真实影像。这凸显了在医疗领域识别和防范深度伪造技术的紧迫性。研究强调，为应对这一挑战，需要加强对医生和LLMs的培训，并利用像DeepFakeXRay这样的专用数据集。不过，研究也指出，样本量或模型版本可能影响结果，未来仍需更多研究来验证这些发现。&lt;br /&gt;&lt;br /&gt;&lt;blockquote&gt;放射科医生也怕“AI画”的X光片？&lt;i&gt;&lt;b&gt;😅&lt;/b&gt;&lt;/i&gt;&lt;/blockquote&gt;&lt;br /&gt;&lt;br /&gt;来源：&lt;a href=&quot;https://doi.org/10.1148/radiol.252094&quot; target=&quot;_blank&quot;&gt;Radiology&lt;/a&gt;&lt;br /&gt;&lt;br /&gt;&lt;a href=&quot;/search/result?q=%23AI%E5%8C%BB%E7%96%97&quot;&gt;#AI医疗&lt;/a&gt; &lt;a href=&quot;/search/result?q=%23%E5%90%88%E6%88%90%E5%BD%B1%E5%83%8F&quot;&gt;#合成影像&lt;/a&gt; &lt;a href=&quot;/search/result?q=%23%E6%94%BE%E5%B0%84%E8%AF%8A%E6%96%AD&quot;&gt;#放射诊断&lt;/a&gt; &lt;a href=&quot;/search/result?q=%23Deepfake&quot;&gt;#Deepfake&lt;/a&gt; &lt;a href=&quot;/search/result?q=%23%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B&quot;&gt;#大语言模型&lt;/a&gt;&lt;br /&gt;&lt;br /&gt;via: 热心群友&lt;br /&gt;&lt;br /&gt;&lt;i&gt;&lt;b&gt;🧬&lt;/b&gt;&lt;/i&gt; &lt;a href=&quot;https://t.me/CNSmydream&quot; target=&quot;_blank&quot;&gt;频道&lt;/a&gt; ｜ &lt;i&gt;&lt;b&gt;🧑‍🔬&lt;/b&gt;&lt;/i&gt; &lt;a href=&quot;https://t.me/CNSmydream2&quot; target=&quot;_blank&quot;&gt;群组&lt;/a&gt; ｜ &lt;i&gt;&lt;b&gt;📨&lt;/b&gt;&lt;/i&gt; &lt;a href=&quot;https://t.me/sciReviewer_bot&quot; target=&quot;_blank&quot;&gt;投稿&lt;/a&gt;</content:encoded></item><item><title>医疗 AI 也会被误导——研究提示“像病历的错误信息”最危险大模型正越来越多地被用于问诊分诊、病历总结和医学问答</title><link>https://sk.88lin.eu.org/posts/CNSmydream-927</link><guid isPermaLink="true">https://sk.88lin.eu.org/posts/CNSmydream-927</guid><pubDate>Sun, 08 Mar 2026 07:20:12 GMT</pubDate><content:encoded>&lt;b&gt;医疗 AI 也会被误导——研究提示“像病历的错误信息”最危险&lt;/b&gt;&lt;br /&gt;&lt;br /&gt;大模型正越来越多地被用于问诊分诊、病历总结和医学问答。但如果错误信息被包装得足够“像真的”，它们会不会照单全收？这项发表于 &lt;i&gt;The Lancet Digital Health&lt;/i&gt; 的横断面基准研究，系统测试了 LLM 在医疗虚假信息面前的脆弱性。&lt;br /&gt;&lt;br /&gt;研究团队评估了 20 个大语言模型，在 340 万条含医学错误信息的提示词中测试其易感性，错误信息来自社交媒体、临床笔记和模拟病例三类场景。结果显示，整体有 31.7% 的基础提示会让模型接受错误信息；其中临床笔记场景最危险，易感率高达 46.1%，显著高于社交媒体场景的 8.9%。不同模型表现差异明显，GPT-4 抗误导能力更强，而部分小模型和医学微调模型反而更容易“中招”。&lt;br /&gt;&lt;br /&gt;这项研究最重要的提醒不是“模型不行”，而是医疗 AI 的部署不能只看答得像不像，还要看它在被误导时能否守住底线。未来真正关键的，可能是事实锚定、来源校验和上下文防御机制，而不是单纯更大的参数规模。&lt;br /&gt;&lt;br /&gt;&lt;blockquote&gt;不是 AI 太笨，而是假病历太像真的——穿白大褂的谣言果然更危险。&lt;i&gt;&lt;b&gt;🩺&lt;/b&gt;&lt;/i&gt;&lt;i&gt;&lt;b&gt;🤖&lt;/b&gt;&lt;/i&gt;&lt;br /&gt;&lt;i&gt;&lt;b&gt;📄&lt;/b&gt;&lt;/i&gt; &lt;a href=&quot;https://doi.org/10.1016/j.landig.2025.100949&quot; target=&quot;_blank&quot;&gt;The Lancet Digital Health&lt;/a&gt;&lt;br /&gt;&lt;br /&gt;&lt;/blockquote&gt;&lt;a href=&quot;/search/result?q=%23%E5%8C%BB%E7%96%97AI&quot;&gt;#医疗AI&lt;/a&gt; &lt;a href=&quot;/search/result?q=%23%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B&quot;&gt;#大语言模型&lt;/a&gt; &lt;a href=&quot;/search/result?q=%23%E5%8C%BB%E5%AD%A6%E8%99%9A%E5%81%87%E4%BF%A1%E6%81%AF&quot;&gt;#医学虚假信息&lt;/a&gt; &lt;a href=&quot;/search/result?q=%23%E6%9F%B3%E5%8F%B6%E5%88%80&quot;&gt;#柳叶刀&lt;/a&gt; &lt;a href=&quot;/search/result?q=%23%E4%B8%B4%E5%BA%8A%E5%AE%89%E5%85%A8&quot;&gt;#临床安全&lt;/a&gt;&lt;br /&gt;&lt;br /&gt;&lt;i&gt;&lt;b&gt;🧬&lt;/b&gt;&lt;/i&gt; &lt;a href=&quot;https://t.me/CNSmydream&quot; target=&quot;_blank&quot;&gt;频道&lt;/a&gt; ｜ &lt;i&gt;&lt;b&gt;🧑‍🔬&lt;/b&gt;&lt;/i&gt; &lt;a href=&quot;https://t.me/CNSmydream2&quot; target=&quot;_blank&quot;&gt;群组&lt;/a&gt; ｜ &lt;i&gt;&lt;b&gt;📨&lt;/b&gt;&lt;/i&gt; &lt;a href=&quot;https://t.me/sciReviewer_bot&quot; target=&quot;_blank&quot;&gt;投稿&lt;/a&gt;</content:encoded></item><item><title>大模型精准预测生理年龄，重塑健康管理近日，发表在《自然-医学》上的一项开创性研究指出，大语言模型（LLMs）能够仅通过常规体检报告，精准预测个体的整体及器官特定生理年龄</title><link>https://sk.88lin.eu.org/posts/CNSmydream-171</link><guid isPermaLink="true">https://sk.88lin.eu.org/posts/CNSmydream-171</guid><pubDate>Sun, 27 Jul 2025 07:17:18 GMT</pubDate><content:encoded>&lt;div&gt;
      
        &lt;img src=&quot;/static/https://cdn5.telesco.pe/file/hUQe6ZL-onM559nHlNcp0B6q0NyFD557muGMyReXvvrdmWpG3JhNJbcm9fdTOiwAMZgoPYowI-1TV6pfl4KKKVPtkz-roDuxWFxhlxYcd9dkYuDMkuUcWwZJwsB_UDBDc4-RCHMQdSCWca6OUf6VhY_vTDWzP9_f8THVUZJvMbEg_265fDKViyLr9Uf1wmUgijS4bQ88pikoAc65iyff63Hxfeo_UbpMWgSRFs0q2kQ8S81k2Lu4bNZRgWYP8Zq6nrOUS56LlgCttEKWJohx2drlNYzH4MQ-gFcNXJOumdPzE78wQnZcRpFaJi7deXPyOWN2NEydjA_0D15dH9bb_Q.jpg&quot; alt=&quot;大模型精准预测生理年龄，重塑健康管理近日，发表在《自然-医学》上的一项开创性研究指出，大语言模型（LLMs）能够仅通过常规体检报告，精准预测个体的整体及器官特定生理年龄&quot; width=&quot;318&quot; height=&quot;122&quot; loading=&quot;eager&quot; /&gt;
      
      &lt;div&gt;
        
        ×
        &lt;div&gt;
          
        &lt;/div&gt;
      &lt;/div&gt;
    
      
        &lt;img src=&quot;/static/https://cdn5.telesco.pe/file/sGpOl4-HJpVbJzdMiLB32SrUD8i3Bs9p1HUkW8VhEVw0mA16yO2tXTC4FBKfAsL9UR4Sq1WrKdtScIy3-IZTaR2ZVzdqOLQQNeimCTisT24G1T59-gI_fL6sRupy-3ece_f0qwgfFV5x9nbxuA4Oo_Hg1KE5PvWrk_PuPWpa_91k85zkZ37H0XGCmkniMzq2rODvcdABXp-sJE6Tu2s1JDGlAtCm6Mit_-CmesEhNB-vxJn-hKaDggicp_NWl1IuHXBxR6ZigGhFTp33H0W0zFGn398SD2bASdxCdRKSU5_E9H8lKBTA7EQRj_s0j6r-MrJsYCVtDkSNLoIdfUR6RQ.jpg&quot; alt=&quot;大模型精准预测生理年龄，重塑健康管理近日，发表在《自然-医学》上的一项开创性研究指出，大语言模型（LLMs）能够仅通过常规体检报告，精准预测个体的整体及器官特定生理年龄&quot; width=&quot;133&quot; height=&quot;122&quot; loading=&quot;eager&quot; /&gt;
      
      &lt;div&gt;
        
        ×
        &lt;div&gt;
          
        &lt;/div&gt;
      &lt;/div&gt;
    &lt;/div&gt;&lt;div&gt;大模型精准预测生理年龄，重塑健康管理&lt;br /&gt;&lt;br /&gt;近日，发表在《自然-医学》上的一项开创性研究指出，&lt;mark&gt;大语言模型&lt;/mark&gt;（LLMs）能够&lt;b&gt;&lt;u&gt;仅通过常规体检报告，精准预测个体的整体及器官特定生理年龄。&lt;/u&gt;&lt;/b&gt;这项研究开发并利用了基于LLMs的框架，并&lt;b&gt;&lt;u&gt;在超过1000万参与者的六个大型队列中验证了其有效性和可靠性&lt;/u&gt;&lt;/b&gt;，预示着未来个性化健康评估和疾病预防的新范式。研究表明，与传统方法（如端粒长度、衰弱指数、表观遗传年龄和机器学习模型）相比，LLMs预测的生理年龄在评估疾病风险方面表现出显著优势，例如&lt;b&gt;全因死亡率预测达到0.757的一致性指数&lt;/b&gt;，并在预测冠心病、中风、肾衰竭以及其他20多种健康结局上表现更佳。&lt;br /&gt;&lt;br /&gt;这项创新性的LLMs评估框架，不仅能提供&lt;b&gt;&lt;u&gt;全面且经济高效的衰老评估&lt;/u&gt;&lt;/b&gt;，还能通过“年龄差”（即生理年龄与实际年龄的差距）有效识别潜在健康风险。研究团队发现，年龄差与多种衰老相关表型和疾病风险紧密相关，例如加速衰老与全因死亡率的风险增加1.055倍。此外，LLMs还能&lt;b&gt;动态评估衰老进程&lt;/b&gt;，并识别出与加速衰老相关的蛋白质生物标志物，其中超过一半是此前未被报道的新发现。&lt;br /&gt;&lt;br /&gt;这项研究的突破在于，LLMs&lt;b&gt;&lt;u&gt;无需昂贵的基因组或表观遗传数据，仅凭日常健康报告即可进行高效分析，大大降低了衰老评估的门槛。&lt;/u&gt;&lt;/b&gt;其强大的泛化能力和实时学习特性，使其在&lt;b&gt;大规模人群健康管理&lt;/b&gt;中具备巨大潜力，为个性化健康干预和精准医疗提供了全新的工具。尽管如此，目前该模型在&lt;b&gt;老年人群中的泛化能力仍有待提升&lt;/b&gt;，且主要依赖文本数据，&lt;u&gt;未来有望整合更多模态数据以实现更全面的衰老评估。&lt;br /&gt;&lt;/u&gt;&lt;br /&gt;&lt;blockquote&gt;以后体检完，AI直接告诉我“你比实际年龄老了五岁，该运动了！”——这感觉是福是祸呢？&lt;/blockquote&gt;&lt;br /&gt;&lt;a href=&quot;https://www.nature.com/articles/s41591-025-03856-8&quot; target=&quot;_blank&quot;&gt;Nature Medicine&lt;/a&gt;&lt;br /&gt;&lt;br /&gt;&lt;a href=&quot;/search/result?q=%23%E8%A1%B0%E8%80%81&quot;&gt;#衰老&lt;/a&gt;  &lt;a href=&quot;/search/result?q=%23%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B&quot;&gt;#大语言模型&lt;/a&gt;  &lt;a href=&quot;/search/result?q=%23%E5%81%A5%E5%BA%B7%E7%AE%A1%E7%90%86&quot;&gt;#健康管理&lt;/a&gt;&lt;/div&gt;</content:encoded></item></channel></rss>