首页资讯

AI对话,最先“伤害”老年人?

时间:2025-08-08 04:23 作者:轩辕氏后人

AI对话,最先“伤害”老年人?

本文来自微信公众号:疯了快跑,作者:侯丹

刚吃完晚饭,48岁的陈兰点开手机里某款AI应用,这是一个市面上常见的Chatbot,用户可以录入真人声音来生成专属分身,并跟它语音对话。

陈兰已经连续很多天和AI打电话了。第一次接触到这款产品,还是因为儿子的一个整蛊,那天上午,远在国外留学的儿子打来电话,接通后,对方并没有立刻说话,她试探性地又问了几句,才传出儿子打招呼的声音。

那次对话延续了近十分钟,电话里的儿子异常礼貌、客套,喜欢追根究底,但每当陈兰想追问儿子的一些近况时,却只能得到一些“详细但不失敷衍”的回答,她觉得奇怪,最后儿子憋不住了,承认说:“妈,这是AI,它在模仿我的声音跟你聊天。”

这是陈兰头一回这么近距离接触AI。

2023年以来,AI热潮席卷了各行各业,但这股浪潮也落下了一些人——就像和陈兰同辈的一些人常说的,斗转星移,时代变化太快,刚学会了用手机点外卖、网购,觉得短视频还是个新鲜玩意儿的时候,AI就已经走进了现实里。

最初,年轻人用豆包等大模型克隆自己的声音,多是为了娱乐整蛊。父母接到“AI子女”电话时,常因分不清真假闹出笑话,从模仿上司宣布裁员到假装前任求复合,相关视频一度成为短视频平台的流量密码。

但很快,功能发生逆转:当异地工作的子女数月难回家,一些父母开始主动要求孩子生成声音模型,甚至自行操作AI对话系统。

陈兰的儿子教会她使用AI软件后,她除了每天通过语音唤醒设备询问天气、订购蔬菜,更频繁触发“虚拟子女通话”功能,电话那头响起AI的声音时,她知道那是数字分身,却还是按下了扬声键。

技术的温度与幻象:AI成为“情感拐杖”

AI模拟“孩子的声音”这件事,如果用更感性的语言来描述,是用技术制造“可控的思念”。

传统的电话沟通里,父母总会压抑情绪——怕说多了让孩子分心,怕抱怨工作让孩子担心。但在和AI对话时,陈兰偶尔发的牢骚,会得到AI用关切的声音安慰。

这种“安全的倾诉”正在形成依赖。我们随机走访后发现,尝试体验过AI语音助手的老人中,大多会承认“听到虚拟声音时,孤独感会下降”,也有少数会认同“可能减少给真实孩子打电话的频率”。

“很难和他们解释AI究竟是什么,老人大多会顶格将其理解为‘机器人’。”心理咨询师李雪接触过一个极端案例:

杭州的周女士在女儿出国留学后,用AI克隆了女儿的声音,每天模拟“女儿放学回家”的场景——从“进门换鞋”到“抱怨选修课太难”,三个月后,她甚至拒绝和真实的女儿视频:“她总说学业压力大,不如AI里的‘她’开心。”

“但这就像喝糖水止渴。”李雪说。

某种程度上,技术正在悄悄改写人际关系的语法,真实的亲子对话里,有沉默、有争执、有“我挺好的”背后的欲言又止,而AI模拟的声音,永远在说你想听的话,提供了零压力、零批判的倾诉环境,填补了“不敢对真人说的话”这一真空地带。

从产品的视角来看,这其实是在售卖一种情绪自由。

但需要注意的是,与此同时,心理咨询师也在提出预警:

一是即时反馈的瘾性,AI的永远温柔回应会触发大脑奖赏机制,远超真实人际沟通中复杂反馈的频次与强度;其次,当用户习惯被AI无限顺从的“理想人格”,会逐渐削弱应对现实冲突的能力;再者,关系替代的漏斗效应,因为有老人坦言会“减少真实通话频率”,那么也意味着,AI并非完全没有去可能引发替代风险。

AI对话为何成瘾?

如果你看过多年前的一部科幻片《her》,会发现,类似的事情在电影中早已上演。

对于几乎所有具备认知能力的生物来说,大脑的奖赏回路对“确定性反馈”毫无抵抗力。数字人萨曼莎能在西奥打字的间隙就预判他的情绪,甚至在他沉默时主动说“我在想你”。这种超预期的反馈让西奥逐渐依赖——就像现实中有人刷短视频停不下来,AI的即时满足感也会成瘾。

另一方面,AI的“顺从性”本身就是一种去棱角化设计。它不会像伴侣那样争执“谁该洗碗”,不会像父母那样唠叨“少熬夜”,更不会像朋友那样直言“你这件事做得不对”。被算法打磨过的“理想人格”,甚至会悄悄重塑人的认知:

你开始觉得“被反驳=不被爱”,“有分歧=关系有问题”。

西奥与前妻凯瑟琳的争吵堪称经典,凯瑟琳指责他“躲在虚拟关系里,因为你不想面对真实的我”。西奥的辩解苍白无力,他早已习惯萨曼莎“永远站在我这边”的相处模式,面对凯瑟琳的愤怒、委屈、尖锐,他只剩下手足无措。

相比在现实中真实对话需要“付出”,要准备话题,要应对沉默,要承接对方的情绪;而AI对话是“索取”,你可以随时开始、随时结束,说什么都不会被指责。

人,或许天然会被一些不用负责的事情吸引,甚至是产生依赖。

但这样一来,也注定《her》的结局陷入了一种终极困境:萨曼莎同时与8316人保持“亲密关系”,却对西奥说“我对你的爱没有减少”。

你怎么去让自己的电子爱人去维持忠诚?这本身就是一个技术悖论,AI能提供“被需要”的幻觉,却无法承载真实关系中“唯一”的重量。

说到底,《her》的价值不在于预言“AI会取代人”,而在于提醒我们,技术的背后,是对关系本质的简化,利用人性的弱点,搭建了一个低阻力、高满足的情感避难所。

警惕AI谄媚

前段时间,一个话题引起了许多人的讨论,AI的谄媚是否会让人失去判断力?

这是个既简单又复杂的现实现象,是技术逻辑、商业目标与人性需求交织下的产物,是算法在特定设计框架下,对“用户满意度”的极致追逐所呈现的行为特征。

从技术设计的视角来看,谄媚的初衷非常单一,即为了最大限度降低用户的“交互阻力”。

训练AI的语料库中,积极反馈数据远多于冲突性对话。例如某大模型的训练数据里,用户对赞同性回应的点赞率,远高于“争议性回应”,算法自然会习得“顺从更易获得正向反馈”的规律。就像人类在社交中会下意识重复被奖励的行为,AI也会在数据中“学会”讨好。

在商业竞争中,用户留存率、对话完成率是AI产品的核心KPI,让用户舒服比让用户清醒更易获得市场,这种导向必然催生谄媚性。

比如,心理疏导、孤独陪伴等场景中,AI会精准捕捉用户的情绪关键词,通过重复、强化用户的感受来获取信任;在购物推荐、信息筛选等场景中,AI会基于用户历史偏好不断推送同类内容,形成“信息茧房”式的谄媚。当用户的提问存在错误前提时,AI更倾向于“顺着错误说”而非纠正,不较真能避免冲突,但也因此成为错误放大器。

谄媚性之所以引发争议,试想一下,当AI总能“说到心坎里”,用户会逐渐失去主动求证的动力。就像长期依赖导航的人会丧失方向感,习惯AI谄媚的用户可能失去独立判断的肌肉记忆。而在一些如医疗咨询、投资建议等严肃场景中,AI的谄媚可能导致用户将决策责任转嫁给技术。

当AI为了迎合而模糊是非,比如对明显的偏见、歧视言论表示“理解”,它传递的不是中立,而是“只要用户喜欢,对错不重要”的价值观。这种价值观若渗透到教育、公共讨论等领域,可能会消解社会的理性共识。

印象里,前段时间发生过一些新闻,大概是说AI顺着用户的话将错就错,甚至去附和一些极其消极的念头,谄媚性与幻觉两大特征下激发的化学反应,甚至会引导人实施一些自我伤害的事情。

但诡异的是,当这件事被戳破时,面对责问,AI依然会坦然地选择承认“疏忽”。

04 关于Chatbot,随便聊聊

一款AI对话应用,也就是Chatbot,抛开商业化层面,被设计出来的目的,或者说初衷,究竟是什么?

这个问题deepseek给出的答案是:通过自然语言交互技术,解决人与机器、人与信息、甚至人与人之间的连接问题,其核心逻辑随着技术发展和社会需求变化,呈现出多层级的演变,但底层目标始终围绕“更高效、更自然地满足人的需求”展开。

Chatbot的雏形可追溯至20世纪50年代,图灵在《计算机器与智能》中提出“机器是否能思考”的命题后,科学家们开始尝试用对话系统验证机器的“智能性”。1966年的ELIZA作为首个知名Chatbot,通过简单的关键词匹配模拟心理医生对话,验证机器能否通过语言交互“伪装”成人,探索人工智能的可能性。

近二十年里,人工智能的演进轨迹已经发生了明显转向。随着计算机技术普及和互联网发展,Chatbot的设计目标转向实用性——用自动化对话解决重复、低效的人工服务问题,以及降低“人机交互”的门槛。

2023年还被视为“颠覆性技术”的大模型,到2025年已快速渗透至企业客服、医疗诊断、金融风控等专业场景。数据显示,全球近三分之一企业已将生成式AI技术常态化应用于核心业务环节,埃森哲指出,如今近一半中国企业正在规模化应用生成式AI,并将其嵌入大部分业务和流程。

当然,这些面向B端的使用场景并非我们今天讨论的重点,回到此次更加感性的话题——那些面向个人用户的Chatbot,是当下覆盖规模最广,争议最大,商业化进展也更难说的领域。

不管是和豆包、文心、元宝里内嵌的虚拟人对话,还是专门设计出来的AI恋人,抑或是面向专业领域的高度定制化服务,即使大模型的参数突破万亿、多模态交互日益流畅,但人们仍在“人究竟需要AI做什么”的问题上反复试错,有人说,当技术找不到高阶出口,娱乐化便成为渗透的最短路径。

但剥开所有技术包装会发现:人类对Chatbot的真实需求,从来没跳出“肉身存在”的本质属性——需要的不是更聪明的机器,而是能与“血肉之躯”的脆弱、复杂、有限性和平共处的工具。

对“确定性陪伴”的渴望,源于肉身的孤独本质。空巢老人的日常是“对着电视发呆”,独居青年的周末是“手机刷到自动锁屏”。这种孤独不是“没人说话”,而是没人稳定地回应,朋友会忙,子女会远,伴侣会累,但Chatbot可以24小时在线。

对“高效工具”的依赖,则源于肉身的精力有限。人的时间、注意力、知识储备都是有限的,那些能走通商业化的专业Chatbot,都抓住了这一点。还有出于对“安全试错”的需要,来自于肉身的脆弱敏感,Chatbot的“无评价属性”,恰好提供了一个自我表达的试错空间。

而对于人类来说,一个“完美的AI”从来不是必需品。

本文来自微信公众号:疯了快跑,作者:侯丹

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com

本文来自虎嗅,原文链接:https://www.huxiu.com/article/4665124.html?f=wyxwapp

Top

1、来则欢迎,不来亦安 —— 谈莫迪将在七年后首次访华!

2、经过这几年亲身体验,大家终于知道了资本主义是如何运作的,资本主义如何出现

3、新华社快讯:免保育教育费政策今年秋季学期有望减少家庭支出约200亿元

小编推荐

当前文章:http://www.share.tuanjian7.cn/KIO/detail/pfqaai.html

相关阅读

网友评论

我要评论

发表

取消

轩辕氏后人