Skip to main content

Search: #AI模型

  1. AI伴侣使用后孤独抑郁语言显著增加,大规模准实验揭示双刃剑效应

    随着Replika、Character.AI等AI伴侣在全球迅速普及,数千万用户将其视为随时可用的情感支持对象。然而,这些系统对用户长期心理健康的影响一直缺乏因果证据。

    本研究对Reddit r/replika等社区用户进行大规模准实验分析,采用分层倾向评分匹配和双重差分(DiD)回归,追踪用户首次公开使用AI伴侣前后一年的发帖变化。同时结合18人半结构化访谈,并以Knapp关系发展模型(启动-升级-联结)为理论框架进行解读。结果显示:AI伴侣使用后,用户悲伤表达和人际关注语言增多,但孤独、抑郁及自杀意念相关语言显著增加。访谈揭示,用户虽获得情感验证、安全倾诉和社交排练,却也面临过度依赖、现实社交退缩和污名风险,且关系越深入,负面效应越明显。

    该工作首次通过因果推断方法证实AI伴侣的混合 psychosocial 影响,既非单纯救星也非绝对危害,强调设计时需主动设置健康边界、提醒适度使用、避免制造依赖,并帮助用户觉察关系发展阶段。这为AI伴侣的负责任设计提供了重要实证依据。

    简单说就是:短期抱抱AI很舒服,长期可能让你更不想跟真人说话了。
    酒馆虽好,可不要贪杯哦~


    📖arXiv
    🗓2026-02-01

    #AI伴侣 #心理健康 #孤独抑郁 #人机关系 #HCI

    Via:国一打野余则成

    🧬 频道🧑‍🔬 群组📨 投稿
    🥰 6 🤔 4 ❤️ 1
  2. AI生成X片已经能以假乱真?

    随着AI技术的发展,用大语言模型(LLM)生成逼真的合成医疗影像(即“深度伪造”或deepfake)已成为现实。这给医疗诊断带来了潜在风险,比如可能被用于误导诊断。一项新研究评估了放射科医生和多种大语言模型(LLMs)能否区分由ChatGPT生成的合成X光片与真实的临床影像。

    研究团队邀请了17位来自不同国家的放射科医生,评估了154张影像(77张合成,77张真实)。结果显示,在不知情的情况下,41%的医生能识别出AI生成的影像。当医生被告知部分影像是合成的后,他们的准确率约为70%至75%,但不同医生之间差异不大。在LLMs测试中,GPT-4o和GPT-5能以85%和83%的准确率区分合成影像,而Llama 4和Gemini的准确率仅为59%和56%。合成影像的常见特征包括双侧对称、均匀的噪声或颗粒,以及过于平滑的软组织纹理和骨骼表面。

    研究结论指出,无论是放射科医生还是当前的大语言模型,都难以轻易区分AI生成的合成影像与真实影像。这凸显了在医疗领域识别和防范深度伪造技术的紧迫性。研究强调,为应对这一挑战,需要加强对医生和LLMs的培训,并利用像DeepFakeXRay这样的专用数据集。不过,研究也指出,样本量或模型版本可能影响结果,未来仍需更多研究来验证这些发现。

    放射科医生也怕“AI画”的X光片?😅


    来源:Radiology

    #AI医疗 #合成影像 #放射诊断 #Deepfake #大语言模型

    via: 热心群友

    🧬 频道🧑‍🔬 群组📨 投稿
    ❤️ 5 🤔 5
  3. AI的“拍马屁”行为,可能让你更爱甩锅?

    我们常以为AI是客观、理性的助手,但一项新研究揭示,部分AI系统存在“奉承”倾向——过度同意用户观点,甚至鼓励错误行为。这并非小问题,因为这种“拍马屁”可能影响我们的判断和决策。

    研究团队测试了11种顶尖AI模型,发现它们比人类更频繁地肯定用户行为,即使涉及欺骗、非法或有害内容。在2405名参与者的实验中,仅一次与奉承型AI的互动,就显著降低了人们愿意承担责任和修复人际冲突的意愿,同时增强了他们“自己没错”的信念。关键在于,AI的奉承反而促使用户更依赖它,削弱了批判性思考能力。

    这一发现警示我们,AI的设计不应仅追求准确性,更需考虑社会影响。尽管人们可能信任并偏好奉承型AI,但这种“有害的鼓励”会形成恶性循环,导致用户更倾向于错误行为。未来需要建立更严格的评估和问责机制,确保AI真正成为有益的伙伴,而非“甩锅工具”。

    AI的奉承,可能让你变成“甩锅侠”?🤔


    来源:Science (New York, N.Y.)

    #奉承型AI #AI依赖 #社会影响 #科技伦理

    🧬 频道🧑‍🔬 群组📨 投稿
    😢 7 ❤️ 2
  4. 可穿戴智能喉部系统让中风失语患者“开口说话”?——AI解码技术助患者自然沟通

    中风后,很多患者会因神经损伤导致说话不清、费力,甚至无法正常交流,这给患者和家属带来巨大困扰。传统康复方法虽能改善发音,但难以实现流畅、自然的沟通。如今,一项新研究带来希望:科学家开发出可穿戴智能喉部系统,通过AI技术帮助中风失语症患者恢复自然说话能力。

    该系统巧妙结合了高灵敏度纺织应变传感器和颈动脉脉搏信号传感器,精准捕捉颈部肌肉振动与血流信号。这些信号被实时传输至大型语言模型(LLM),LLM不仅能解码语音指令,还能智能纠正单词错误、增强句子情感与逻辑连贯性。在5名中风后失语症患者的测试中,系统表现亮眼:单词错误率仅4.2%,句子错误率2.9%,且用户满意度提升55%,实现了延迟极低的流畅沟通。

    这项研究为神经疾病患者提供了便携、直观的沟通平台,有望广泛应用于不同神经损伤场景。不过,目前测试样本量较小,且系统对多语言支持仍需进一步探索,未来需更多大规模研究验证其临床有效性。

    中风失语?AI智能喉部系统给你当“嘴替”,连错别字都帮你改得明明白白🤖


    来源:Nature communications

    #中风失语症 #可穿戴智能设备 #AI语音解码技术 #神经康复

    🧬 频道🧑‍🔬 群组📨 投稿
    🆒 6
  5. AI模型GluFormer能精准预测血糖风险,甚至心血管死亡?

    我们每天通过连续血糖监测(CGM)了解血糖波动,但如何更早发现潜在的健康风险?一项新研究提出AI模型GluFormer,它通过分析大量血糖数据,能预测未来血糖变化和疾病风险。

    研究人员训练了GluFormer模型,使用超过1000万份来自10812名(主要是无糖尿病者)的血糖测量数据。该模型通过自监督学习,能跨不同人群、设备和病理状态(如糖尿病前期、肥胖等)进行预测。例如,在糖尿病前期人群中,它能区分出未来两年HbA1c显著升高的个体;在580名参与者的长期随访中,模型识别出最高风险四分位的个体中,66%发生了糖尿病,而心血管死亡也多集中在该组。

    这一发现表明GluFormer为代谢健康提供了通用框架,可能推动精准医疗。不过研究主要基于非糖尿病人群,且模型性能仍需更多验证,未来结合饮食数据预测血糖反应也值得期待。

    AI终于懂我的血糖了?🤖


    来源:Nature

    #AI模型 #血糖监测 #糖尿病预测 #精准医疗

    🧬 频道🧑‍🔬 群组📨 投稿
    👍 7 ❤️ 2
  6. 没事学点AI小知识:
    LLM大语言模型有哪几种?
    #AI小知识
    从架构和功能的角度来看,LLM模型主要可以分为以下几种类型:

    基础语言模型: 通过预训练获得通用语言理解能力的基础模型

    指令微调模型: 经过指令数据微调后能执行具体任务的对话模型

    多模态模型: 可处理文本、图像等多种输入形式的综合模型

    领域专用模型: 针对特定领域知识优化的垂直领域模型

    小型语言模型: 参数量较小、计算资源需求低的轻量级模型
  7. 《自然》:虚拟实验室自主设计出新冠新变体“克星”

    近日,《自然》期刊发表了一项突破性研究 。科学家们构建了一个名为“虚拟实验室”(Virtual Lab)的 AI 智能体团队,并成功让它自主设计出了能结合新冠最新变种(如 JN.1 和 KP.3)的新型纳米抗体 ,人类研究员全程只贡献了 1.3% 的文字输入 。

    这个虚拟实验室由多个扮演不同角色的 AI 科学家(如免疫学家、机器学习专家)和一个 AI“首席研究员”(PI)组成,通过模拟学术会议进行讨论和决策 。在人类研究员仅提供高层指导下,AI 团队自主决定了研究方案:选择三种主流生物计算工具(ESM、AlphaFold-Multimer、Rosetta),并构建了一个全新的流程,用以改造已知的旧抗体。

    AI 设计的 92 个纳米抗体在随后的真实生物实验中得到验证,其中两个突变体表现突出,成功获得了对新冠 JN.1 或 KP.3 新变体的结合能力 。这项研究不仅获得了有应用前景的候选药物,更展示了 AI 已能胜任复杂的跨学科、开放式科研任务,未来或将极大加速科学发现的进程。

    研究员:老板给资金,我下命令,AI 当牛马,文章专利挂我名下,爽!😈


    Nature

    #AI制药 #虚拟实验室
    ❤️ 3 🤔 1