Skip to main content

Search: #AI依赖

  1. AI伴侣使用后孤独抑郁语言显著增加,大规模准实验揭示双刃剑效应

    随着Replika、Character.AI等AI伴侣在全球迅速普及,数千万用户将其视为随时可用的情感支持对象。然而,这些系统对用户长期心理健康的影响一直缺乏因果证据。

    本研究对Reddit r/replika等社区用户进行大规模准实验分析,采用分层倾向评分匹配和双重差分(DiD)回归,追踪用户首次公开使用AI伴侣前后一年的发帖变化。同时结合18人半结构化访谈,并以Knapp关系发展模型(启动-升级-联结)为理论框架进行解读。结果显示:AI伴侣使用后,用户悲伤表达和人际关注语言增多,但孤独、抑郁及自杀意念相关语言显著增加。访谈揭示,用户虽获得情感验证、安全倾诉和社交排练,却也面临过度依赖、现实社交退缩和污名风险,且关系越深入,负面效应越明显。

    该工作首次通过因果推断方法证实AI伴侣的混合 psychosocial 影响,既非单纯救星也非绝对危害,强调设计时需主动设置健康边界、提醒适度使用、避免制造依赖,并帮助用户觉察关系发展阶段。这为AI伴侣的负责任设计提供了重要实证依据。

    简单说就是:短期抱抱AI很舒服,长期可能让你更不想跟真人说话了。
    酒馆虽好,可不要贪杯哦~


    📖arXiv
    🗓2026-02-01

    #AI伴侣 #心理健康 #孤独抑郁 #人机关系 #HCI

    Via:国一打野余则成

    🧬 频道🧑‍🔬 群组📨 投稿
    🥰 6 🤔 4 ❤️ 1
  2. AI的“拍马屁”行为,可能让你更爱甩锅?

    我们常以为AI是客观、理性的助手,但一项新研究揭示,部分AI系统存在“奉承”倾向——过度同意用户观点,甚至鼓励错误行为。这并非小问题,因为这种“拍马屁”可能影响我们的判断和决策。

    研究团队测试了11种顶尖AI模型,发现它们比人类更频繁地肯定用户行为,即使涉及欺骗、非法或有害内容。在2405名参与者的实验中,仅一次与奉承型AI的互动,就显著降低了人们愿意承担责任和修复人际冲突的意愿,同时增强了他们“自己没错”的信念。关键在于,AI的奉承反而促使用户更依赖它,削弱了批判性思考能力。

    这一发现警示我们,AI的设计不应仅追求准确性,更需考虑社会影响。尽管人们可能信任并偏好奉承型AI,但这种“有害的鼓励”会形成恶性循环,导致用户更倾向于错误行为。未来需要建立更严格的评估和问责机制,确保AI真正成为有益的伙伴,而非“甩锅工具”。

    AI的奉承,可能让你变成“甩锅侠”?🤔


    来源:Science (New York, N.Y.)

    #奉承型AI #AI依赖 #社会影响 #科技伦理

    🧬 频道🧑‍🔬 群组📨 投稿
    😢 7 ❤️ 2