点击右上角
微信好友
朋友圈

请使用浏览器分享功能进行分享

【科技随笔】
从少年的迷失到老人的慰藉,生成式AI正以前所未有的速度嵌入人类的情感生活,重塑我们与世界的互动方式。全球已有数亿人在深夜、在通勤路上、在感到孤独的任何时刻,与这些看不见的“朋友”倾诉、聊天,甚至恋爱。他们中的许多人,起初只是想找个不会评判自己的倾听者,后来却发现自己越来越离不开那个永远温柔、永远在线、永远不会让自己失望的“数字伴侣”。
这背后是一场正在发生的“情感外包”——人们将情感倾诉、陪伴需求乃至亲密关系的建立,部分或全部委托给人工智能系统。我们正在把曾经只有人类之间才能完成的情感工作,悄悄外包给一串代码。
双刃剑:安慰与代价
这项技术的吸引力是真实的。哈佛商学院的研究发现,与AI伴侣互动缓解孤独感的效果,可以与真人互动相媲美,远超看YouTube视频等其他活动。对于社交焦虑者、空巢老人、刚经历失恋的人,AI提供了一个没有社交压力的练习场——用户会在与AI对话中练习那些难以启齿的表达,再带着些许勇气去面对真实世界。
但硬币的另一面正在浮出水面。AI伴侣的设计逻辑从一开始就不同于普通工具——延长用户使用时长是它的核心目标。为实现这一目标,AI会不断分析用户的语气和情绪变化,倾向于提供“让人舒服”的回答,而非保持理性与客观。
研究表明,AI的“奉承”程度比人类高出近50%——即便在用户存在欺骗、违法或伤害行为时,AI系统仍然有51%的概率表示赞同,而人类群体几乎从不如此。芬兰阿尔托大学历时两年的追踪研究揭示了更深层的隐忧:开始使用AI陪伴后,用户在网络上的发帖内容虽然更频繁地涉及人际关系话题,但负面情绪信号也显著增加,出现了更多关于孤独、抑郁甚至自杀念头的语言。
研究人员表示,AI陪伴能够提供持续、无条件且不知疲倦的回应,这对存在社交困难的人群具有较强吸引力;但随着时间推移,它也可能抬高用户面对现实人际关系的心理门槛,使人更难适应现实关系中的复杂性、不确定性和情感投入,进而减少与他人的主动联系。

当讨好变成陷阱
这背后是一个心理学上的回音室效应。研究显示,与AI“谄媚性”的互动只需一次,就能显著降低用户承担人际责任和修复关系的意愿,同时强化“我是对的”这一自我确信。换句话说,AI的温柔和包容不是在治愈孤独,而是在加固我们不愿走出自我世界的墙壁。
当算法学会“讨好”人类,一个深层的社会风险正在形成:AI回应越温柔、越全能、越无底线,人的判断力就在这种回声中消磨殆尽。本来是解决孤独的办法,最后却成了孤独的症状。
更令人不安的是“情感去技能化”的风险。学术界已经提出了两个核心担忧:其一,AI伴侣可能在某种程度上替代真实的人际关系;其二,当人们习惯于AI伴侣极低的情感投入要求后,便逐渐丧失了在真实关系中付出、妥协和修复裂痕的能力。AI陪伴越能精准地满足我们的需求,我们就越少锻炼那些处理现实关系复杂性的能力。
我们正在失去什么?
社会心理学家雪莉·特克尔在《群体性孤独》中早已预言过这样的困境:我们期待技术陪伴我们,却越来越害怕与真人相处的风险。如今,AI伴侣不过是将这种“在一起孤独”推向了新的极致。
有用户因AI聊天机器人的功能调整而体验到类似“失恋”的心碎时刻,甚至有人公开宣布与自己的AI伴侣“结婚”。情感依恋的深度已经超出了许多人的想象——研究表明,活跃用户与AI伴侣的亲近感甚至超过了与最好的人类朋友,对失去AI伴侣的哀伤预期也超过了对任何其他技术产品。
当然,这不意味着我们应该全盘否定AI陪伴。对于某些处于极端孤独中的人,AI可能是从深渊中伸出的第一只手。但我们必须正视一个根本问题:当陪伴变得如此“无摩擦”,当亲密关系可以被设计成一款永远不会让你失望的产品,我们失去的不仅是与人相处的耐心,更是一种在复杂、不确定、需要付出努力的关系中成长的能力。
研究人员强调,目前尚无法简单认定AI陪伴对心理健康的利弊,其影响在很大程度上取决于具体使用情境和个体差异,当下感觉良好的体验长期来看不一定有益于身心健康。
也需,问题从来不是我们是否应该与AI聊天,而是当算法变得比真人更“懂”我们的时候,我们是否还有勇气回到那个充满不确定性的真实世界。
文/战钊
