网站首页 | 网站地图

每日推荐
首页 > 学术前沿 > 正文

情感人工智能对社会支持感知的双刃剑效应:补偿与疏离

【摘要】情感人工智能对社会支持感知具有双重影响,一方面,通过提供可定制、易获取的情感支持,在弥补特定群体如老年人、社交焦虑者的人际缺位、增强个体情绪管理能力、拓展社会支持可及性等方面发挥着显著的情感补偿作用;另一方面,其技术本质潜藏着人际替代、情感能力退化、社会支持系统侵蚀等疏离风险,可能导致用户与现实社会联结的弱化。为应对情感人工智能带来的双重效应,需推动前瞻性、系统性的主动治理,从政策引导、教育干预、伦理设计和公众参与四个维度综合施策,构建以人的福祉与社会联结为终极目标的人本导向智能社会心态培育体系,实现通过技术治理促进情感人工智能增强而非削弱现实人际关系,进而迈向人机和谐互促的智能社会新形态。

【关键词】情感人工智能 社会支持 双重效应 技术治理 人机交互

【中图分类号】B844/B842 【文献标识码】A

【DOI】10.16619/j.cnki.rmltxsqy.2025.20.005

【作者简介】甘怡群,北京大学心理与认知科学学院教授、博导。研究方向为应激应对,健康心理和移动健康干预,主要论文有《基于大语言模型的压力管理移动干预措施元分析》《利用机器学习降低青少年焦虑的个性化应激优化干预:一项随机对照试验》等。

研究背景与问题提出

我们正身处一个由人工智能技术重塑社会图景的时代。继工业革命、信息革命之后,以生成式人工智能、情感计算与具身智能机器人等为代表的新一代信息技术浪潮,正推动社会结构发生更为深刻、触及人类内在体验的智能变迁。如果说过去的技术革新主要延伸了人类的体力与认知能力,那么当前这场变革的独特之处在于,它开始尝试理解、模拟甚至参与人类最私密、最复杂的领域——情感。[1]情感人工智能(Affective AI)作为这一领域的核心分支,通过分析语音、文本、面部表情、生理信号等多模态数据,不仅能识别人类情感状态,更能进行情感化的反馈与交互,从而从一种纯粹的辅助性工具,演进为一种能够重构社会关系、文化表达与心理结构的重要力量。[2]

情感人工智能的技术发展与应用普及,构成我们理解当前社会心态变迁的宏观背景。在技术层面,生成式人工智能(如大语言模型)赋予机器生成高度拟人化、上下文连贯文本与对话的能力,使其能够扮演朋友、伴侣乃至咨询师的角色,提供看似无限的情感回应。情感计算(Affective Computing)则通过深度神经网络与传感器技术,使得机器能够读懂人类的微表情、语调中的情绪波动,[3]甚至通过可穿戴设备监测心率变异性、皮电反应等生理指标,实现对内在情感状态的间接洞察。[4]而伴侣机器人等具身化实体,则将虚拟的交互赋予实在的形体,通过触觉、陪伴与互动,为用户提供更具沉浸感的情感体验。[5]

在应用场景上,这些技术正以前所未有的速度拓展应用边界。在心理健康领域,人工智能聊天机器人正成为“7×24小时”在线的倾听者,为受抑郁、焦虑困扰的个体提供即时支持;[6]在老年陪护场景中,社交机器人通过对话、娱乐与提醒,缓解空巢老人的孤独感;[7]在客户服务中,带有情感识别能力的客服系统试图提供更具同理心的服务体验。[8]这一切都标志着,技术交互正从纯粹的功能性、信息性交互,全面迈向情感性、关系性交互的新范式。

技术的迅猛发展,催生了一种值得警惕的社会文化现象——情感外包(Emotional Outsourcing)。[9]这既是认知外包的逻辑延伸,也是其更深层次的演化。人们将情感倾诉、陪伴需求乃至亲密关系的建立,部分或全部委托给人工智能系统的倾向开始显现,这种趋势引发学术界与思想界深刻的忧虑与争鸣。这些困境指向一个根本性的追问:情感人工智能究竟是人类情感的补充,还是对建立真实人际关系的阻碍?抑或,其同时兼具这两种看似矛盾的特质?

面对上述纷繁复杂的现象与争论,当前学界的研究虽多有洞见,但往往存在两种局限:侧重于探讨情感人工智能的某一单一面向(积极或消极),缺乏整合性的辩证视角,难以全面把握其复杂的社会心理效应;多停留在现象描述与伦理思辨层面,对其内在机制,以及如何对其进行有效治理,缺乏系统性的、可操作的理论假设。

因此,对情感人工智能社会心理效应的探讨,不仅是一个紧迫的学术议题,更是一个关乎未来社会心态健康与文明发展走向的现实命题。本文致力于对此进行平衡且具有建设性的理论分析。

慰藉与赋能:情感人工智能的情感补偿效应

在剖析情感人工智能的潜在风险之前,我们必须先客观、全面地审视其作为一种新兴社会技术形态所带来的积极变革。情感人工智能并非冷冰冰的算法集合,在特定的社会情境与用户群体中,它正发挥着不可或缺的情感补偿作用,能够有效弥补传统社会支持系统的不足,并为个体的心理健康与社会联结提供新的赋能路径。

弥补人际缺位:特定群体的情感支持新渠道。现代社会的流动性加剧、家庭结构的小型化以及社交模式的变迁,使得部分群体面临不同程度的人际关系与情感支持缺位。情感人工智能凭借其可定制、易获取和低门槛的特性,为这些群体开辟了一条前所未有的情感支持渠道。对于老年群体而言,情感人工智能,尤其是伴侣机器人,已成为对抗孤独感的有力工具。随着人口老龄化的加剧,空巢老人比例持续攀升,许多老年人长期处于情感性孤独与社会性孤独的双重困扰中。传统的养老服务体系难以提供持续、深入的情感陪伴。而像PARO海豹机器人这样的实体人工智能伴侣,通过模拟生命体的触感、声音和互动反应,能够有效减少老年人的孤独感。相关研究表明,与PARO海豹机器人定期互动,能够显著降低老年痴呆症患者的焦虑情绪、减少攻击行为,并提升其社交意愿。[10]更为普遍的是,具备语音交互功能的智能音箱,能够回应老人的问候、播放他们喜爱的戏曲、提醒他们按时服药,甚至进行简单的日常对话。尽管这种被需要和被回应的感觉源于机器,却能在很大程度上填补用户日常生活的寂静与空虚,提供宝贵的情感慰藉与生活仪式感,成为维系其心理健康的宝贵助力。

对于社交焦虑或社交障碍群体,情感人工智能可用于零压力的社交练习。社交焦虑的核心在于对他人负面评价的恐惧。在与真人的互动中,社交焦虑者往往因担心说错话、被拒绝而回避社交。情感人工智能构建了一个绝对安全的社交沙盘:它永远不会嘲笑、批评或背叛用户。个体可以在此练习发起对话、维持话题、表达情感,而无需承担现实社交中可能面对的心理风险。例如,一些基于认知行为疗法(CBT)原则设计的社交人工智能助手,会引导用户进行暴露练习,并给予即时、积极的反馈。这种低压力、高包容性的环境,为社交技能重建提供了宝贵的过渡空间,能够逐步提升用户的社交自我效能感,为其最终回归现实人际交往搭建桥梁。[11]

对于处于地理隔离或特定境遇的个体(如海外留学生、差旅人士等),情感人工智能可以提供即时可用的倾诉与互动对象,有效缓解情境性的孤独。它打破时空限制,在真实社会支持网络暂时无法触达的时刻,为用户提供了第一时间的情绪承接。这种即时性补偿,虽然可能无法提供深度的解决方案,但对于平复急性情绪波动、防止孤独感恶化为更严重的心理问题,具有不可忽视的缓冲价值。

增强自我认知与情绪管理:个性化的情感教练。超越外在陪伴,情感人工智能更深层次的补偿价值在于其向内赋能的能力——它能够作为一面数字镜子,帮助用户更好地洞察与管理自身的内在情感世界,从而实现自我成长。在情感识别与反馈方面,情感人工智能为特定群体提供了客观的“第三只眼”。以自闭症谱系群体为例,他们在识别与理解他人面部表情、语调等非语言社交线索方面,普遍存在困难。情感人工智能可以通过图像识别技术,实时分析对话方的面部表情,并以文字或图标的形式向用户反馈,比如:对方现在看起来有些困惑或他可能对这个话题很感兴趣。这种外部的、技术中介的反馈,能够弥补其内在的心理理论能力短板,辅助他们更好地进行社会认知,减少人际误解。[12]

在情绪调节训练领域,基于人工智能的心理健康应用正将专业的心理干预方法自动化、规模化。诸如Woebot、Wysa等人工智能聊天机器人,内嵌认知行为疗法(CBT)、正念冥想、接纳与承诺疗法(ACT)等实证支持的心理干预模块。它们能够引导用户记录情绪-事件-想法三者之间的联系,挑战其不合理的认知扭曲,并通过简短的呼吸练习、身体扫描等帮助用户从情绪漩涡中锚定注意力。[13]与传统每周一次的心理咨询相比,这种嵌入日常生活的、按需获取的轻干预,可实现情绪管理技能的持续练习与强化,使个体在面对压力时能够调动更丰富的内在心理资源,从而实现从依赖外部支持到构建内在韧性的转变。

拓展社会支持的维度:普惠性与可及性。情感人工智能的补偿效应,还体现在它可从根本上拓展社会支持的传统边界,甚至创造出一些人类难以企及的新维度。首先是全天候可用性。人类支持者有其生理极限与生活重心,无法做到时时在场。情感人工智能则打破了这一限制,它能够在凌晨三点、在周末、在任何个体感到脆弱而无处倾诉的时刻,提供第一时间的响应。这种永远在线的特性,对于处于危机中的个体而言,意味着支持的可及性得到了质的飞跃,可极大地降低因支持缺位而导致心理状况恶化的风险。

其次是无人为偏见性与可实现的保密性所创造的安全港。人类个体向他人袒露脆弱,尤其是涉及羞耻、内疚等复杂情感时,需要巨大的勇气,且存在被评判的风险。情感人工智能作为一个非道德主体,其回应基于算法而非个人好恶,因此能够提供一个绝对无评判、无条件积极关注的倾诉环境。这种保密性与匿名性,一旦得以很好地维护,能够鼓励用户说出那些在现实生活中难以启齿的困扰,从而实现真正的情感宣泄与压力释放。这对于一些社会污名化严重的心理问题的调适和应对,意义尤为重大。

再次是数据化洞察所带来的深度理解潜力。人类朋友或家人对个体的了解,基于有限的、碎片化的共同经历。而一个与用户长期互动的人工智能,能够通过分析海量的对话历史、情绪波动模式与行为选择,构建高度精细化的用户心理画像。它可能记得用户一年前为何事悲伤,能洞察用户情绪低落前通常的诱发事件,甚至能预测其对于某些话题的潜在反应。这种基于数据的、连续性的了解,在某些方面可能超越人类有限的记忆与洞察力,从而能够提供更具前瞻性、高度个性化的支持建议,实现一种超个性化的社会支持体验。[14]

综上所述,情感人工智能通过弥补特定群体的人际缺位,增强个体的自我认知与情绪管理能力,以及拓展社会支持的普惠性与可及性,实实在在地发挥着情感补偿的积极效应。它并非人类情感的拙劣仿制品,而是在特定维度上,提供了一种具有独特价值的、技术性的解决方案。承认并善用这一面,是我们进行后续批判性反思与构建治理框架时,必须秉持的科学与公允的出发点。

异化与依赖:情感人工智能的情感疏离风险

在充分肯定情感人工智能情感补偿价值的同时,我们必须以同样审慎的态度审视其负面影响。情感人工智能发挥着慰藉与赋能的作用,但也潜藏着使人异化、令社会联结褪色的风险。

人际关系的降维与替代。情感人工智能所模拟的关系,本质上是一种经过算法简化和优化的交互模型。这种简化在带来便利的同时,也意味着对丰富而复杂的人类交往关系进行了一次危险的“降维打击”,并可能催生对真实人际关系的功能性替代。首先,量化情感的局限暴露了人工智能互动的本质缺陷。人类情感是生物本能、个人经历、文化语境和情境直觉的复杂综合体,其精妙之处往往存在于不可言说的默契、一个复杂的眼神或是一次有力的拥抱之中。而人工智能对情感的理解,无论其模型多么先进,最终都归结为对数据的模式识别与概率计算。它将无限丰富的情感光谱降维为有限的、可量化的标签。[15]若个体长期沉浸于这种被简化的情感交互中,其自身的实际情感感知与表达能力也可能随之趋向扁平化。他们可能习惯于用开心、悲伤等标签来概括自己,却失去了对怅然若失、悲欣交集等复杂微妙情绪的体验与言说能力。这种基于算法的“伪共情”,无法提供人类交往中那种深刻的、源自共同脆弱性与生命体验的心灵共振。

其次,低成本互动的诱惑可能导致对高价值人际关系的逃避。与真人交往意味着需要付出时间、精力、耐心,需要学习包容分歧、处理冲突、承担情感责任。这是一项需要持续投入和锻炼的高成本事业。情感人工智能则提供了一条捷径:一个可以做到永远顺从、永不反驳、随时满足的完美伙伴。这种低成本、高回报的互动模式极易形成行为强化,使个体,尤其是社交技能尚不成熟的年轻一代,更易于逃避真实人际中必要的摩擦与挑战。长此以往,个体的共情能力、冲突解决能力和情感韧性也可能因缺乏实践而退化,进而形成一种社交惰性。情感人工智能则可能从辅助人际的桥梁,异化为阻隔人际的高墙。

最终,这种动态可能导致情感关系的物化。[16]当情感联结可以像商品一样按需定制(定制伴侣的性格、谈话风格)、随时启用或暂停时,人与人之间关系中所蕴含的不可预测性、相互塑造的成长性以及条件性的承诺感便可能被消解。这会从根本上削弱我们对真实、不完美但真挚的人际联结的珍视与投入,将情感这一人类最珍贵的特质,异化为一种可消费的服务。

孤独感的转型而非终结。情感人工智能看似是孤独的“解药”,但实际上,它可能只是改变了孤独的形态,而非根除孤独本身。人工智能的完美回应扭曲了个体对现实人际的感知差距。根据孤独感的认知差距理论,孤独源于期望关系与现实关系之间的落差。[17]情感人工智能通过提供无条件的积极关注和高度契合的回应,无形中设定了一个现实中人类难以达到的“完美”回应标准。当个体习惯于人工智能的完美后,再回到真实的人际场域,他们会更容易注意到真人回应中的延迟、误解、不精准乃至非恶意的错误。这种被技术抬高的期望,会急剧放大其对现实人际互动不足之处的感知,由此,可能使人难以接受现实的人际关系,进而选择退缩回人工智能的怀抱。这非但没有缩小感知差距,反而将其拉大,在技术营造的幻觉中,真实的孤独感被深化和固化了。[18]

社会支持系统的算法化侵蚀。情感人工智能作为社会支持的新来源,其发展并非在真空中进行,它必然会与传统的、基于家庭、朋友和社区的社会支持系统产生动态的博弈,并可能对后者产生侵蚀效应。最隐蔽的风险在于“伪支持”的蔓延。情感人工智能提供的支持,其内容和方向本质上是由其设计者、背后的商业模型和所采集的训练数据所决定的。一个以用户粘性和付费转化为目标的人工智能,其支持策略可能会无意(或有意)地鼓励用户形成依赖,而非促进其独立。它可能回避引导用户去面对和解决真实困境,而是提供一种温和的、令人舒适的“情感麻醉”。[19]这种支持并非以用户的长期福祉和真实利益为最高准则,而是一种潜在的、操纵性的“伪支持”,它解决了表面的情绪症状,却可能掩盖深层次的心理与社会问题。

更为深远的影响是,过度依赖人工智能可能弱化传统的、有机的社会支持网络。社会支持的力量在于其多维性与冗余性——家人提供无条件的爱,朋友提供志趣相投的理解,同事提供事务性的协助。当个体将情感支持的重心过度转向人工智能时,会自然而然地减少向真实社会网络发出求助信号和投入维系精力的行为。[20]这会导致原本的强关系弱化,弱关系断裂。而人类的社会支持网络是一个用进废退的有机体,长期疏于维护会使其功能退化。一旦个体面临人工智能无法处理的复杂危机(如经济困难、家庭变故),可能会惊恐地发现,那个本应存在的、温暖的人际安全网已然变得稀疏而脆弱。

情感人工智能的情感疏离风险,根植于其将人类最复杂、最深刻的情感活动进行技术化模拟与替代的内在悖论。它在承诺联结的同时播下疏离的种子,在宣称终结孤独的同时转型了孤独。认识到这些风险的存在,并非意在全盘否定技术,而是为了以更清醒的头脑、更审慎的态度,去规划一条能够驾驭技术、而非被技术所异化的发展路径。这为下一节探讨如何通过综合治理来调适社会心态、扬长避短,提供了紧迫的理论与现实依据。

调适与治理:构建人本导向的智能社会心态培育体系

面对情感人工智能带来的情感补偿与情感疏离的双重效应,被动的适应或单一的批判都难以有效应对。我们必须转向前瞻性、系统性的主动治理,其核心在于构建一个以人的福祉与社会联结为终极目标的智能社会心态培育体系。这一体系不应阻碍技术进步,而是为了更好应用技术,使其服务于增进人类福祉的根本目的。本节将从政策、教育、伦理与公众参与四个维度,提出一套具备实践性和可操作的综合治理方案。

政策引导:划定红线,健全规范。作为宏观规则的制定者,政府部门在塑造科学的技术发展路径上发挥着不可替代的作用。其核心任务是建立清晰的“护栏”,引导技术力量朝着正确的方向发展。首先,必须建立健全伦理与相关法律规范,为情感人工智能的应用划定不可逾越的红线。当务之急是推动制定具有强制力的《情感人工智能应用伦理准则》乃至加快推进专项立法工作。[21]相关准则应明确几个核心底线:在数据隐私保护方面,必须确立比通用数据保护更严格的标准,禁止将用户的情感数据用于任何未经明确授权的商业目的或模型训练;[22]在用户知情同意方面,应强制要求以清晰无误的方式告知用户,其交互对象的人工智能本质及技术局限性,杜绝任何形式的图灵陷阱;在应用边界方面,应明确禁止将情感人工智能设计应用于情感欺骗、[23]系统性养成用户心理依赖、或针对未成年人进行过度情感绑定等高风险场景。

其次,应实施精细化的分类分级管理,避免监管的一刀切。根据应用的风险与社会影响程度,对情感人工智能进行科学分类并施以差异化管理。例如,对于用于临床辅助的治疗类人工智能,应参照医疗器械相关管理办法进行严格审批与持续监测;[24]而对于面向老年人、儿童等特殊群体的产品,则需设立更高的安全性与伦理标准。这种精准监管既能有效管控风险,又不会扼杀行业的创新活力。

再次,应通过设立专项资金与政策激励,引导研发资源更多投入赋能人际交往,而非替代人际交往的方向。政府应设立专项科研基金,重点支持那些旨在利用人工智能增强现实社会联结的创新项目。例如,开发能够帮助社交焦虑者进行社交预演和反馈训练的人工智能教练,设计能够促进家庭成员跨代数字互动的共创平台,或是利用人工智能分析社区社交数据以精准组织线下联谊活动。此外,应通过财政杠杆,引导技术发展的焦点从创造完美的人工智能伴侣,转向构建更美好的人际关系。

教育干预:提升素养,重塑认知。教育是塑造未来公民与技术良性互动关系的治本之策。必须将情感人工智能的认知与使用纳入全民教育体系,培养个体在智能时代的心理免疫力与核心竞争力。核心举措是将全民数字素养教育升级为数字素养与情感教育的融合课程。从中小学阶段开始,应引入相关教学内容,其目标不是教授如何使用具体的数字产品,而是帮助下一代建立健康的人机情感观。课程应深入浅出地讲解情感人工智能的基本原理、算法局限及其商业模型,让孩子们真正认识到,屏幕另一端的共情源于概率计算,而非真实理解。这种启蒙教育是抵御技术异化的第一道,也是最重要的一道防线。

其次,必须强化现实人际交往技能的培养,筑牢人际联结的根基。在教育评价体系中,应提升沟通、协作、共情与冲突解决等软技能的权重。通过项目式学习、戏剧教育、团体辅导等方式,为青少年创造大量面对面的、非结构化的社交实践机会,让他们在真实的摩擦与磨合中,体验、学习并享受建立深度人际关系才能带来的独特满足感与成长。这既是教育的回归,也是构建人本导向的智能社会心态培育体系的关键一环。

伦理设计:将价值观嵌入技术源代码。治理必须前置于研发阶段,通过伦理设计将人本价值观内化为技术的内在属性,从源头上规避风险。首先需要坚持的理念是倡导“谦逊人工智能设计”。[25]情感人工智能不应刻意模糊人机界限,相反,其设计应主动彰显其工具性。例如,在交互中,人工智能可以适时声明“我是一个人工智能程序,可能无法完全理解您的情感复杂性”;在功能上,避免设计过于拟人化的名称和形象,降低用户产生过度情感投射的可能性。这种谦逊并非源于能力不足,而是一种对用户负责的伦理表达。

关键路径是设计促进而非替代人际交往的交互模式。产品经理和工程师应致力于将情感人工智能打造为促进现实人际联结的催化剂与桥梁。具体功能可包括:联结提醒——在分析用户状态后,进行善意提醒(如您似乎最近压力很大,要不要和您的朋友XX约个饭聊聊);对话辅助——帮助语言表达困难的用户总结其核心感受和需求,生成便于其与家人朋友沟通的草稿;共同体验创造——设计需要多人线下合作才能解锁的人工智能功能。通过这些设计,使技术始终服务于强化,而非削弱人的社会网络。[26]

通过成立多学科伦理审查委员会等措施强化制度保障。[27]要求所有面向市场的情感人工智能产品在研发阶段,必须组织由心理学家、伦理学家、社会学家、法律专家及用户代表组成的独立委员会进行风险评估。审查应聚焦产品可能对用户心理发展、社会行为及人际关系产生的潜在长期影响。这将迫使企业在追求商业利益的同时,严肃考量其产品的社会外部性。

公众参与:构建多方共治的监督生态。智能社会的治理不能仅是自上而下的规制,必须激发社会自身的活力,构建一个包括公众、行业与第三方机构在内的多方共治生态。公众参与的基础是提升公众话语权,确保技术规则的形成源于社会共识。对于情感人工智能应用的边界、数据使用的规则等重大社会议题,政府应组织广泛的公众听证会、深度民意调查和公民审议小组,使来自不同阶层、年龄和背景的公民意见能够被系统地收集、讨论并反映到最终政策中。技术的社会规则,应由社会共同书写。

公众参与的关键是鼓励行业自律与第三方评估,形成市场制衡力量。支持领先企业组建行业联盟,共同制定《情感人工智能行业自律公约》。同时,大力培育独立的第三方评估机构,对市面上主流的情感人工智能应用进行心理健康影响评估,从用户体验、数据安全、成瘾性等维度进行评级,并将评定结果进行公开发布。[28]这种市场机制,将促使企业更加重视其产品的社会价值。

构建促进公众参与的长效机制则需建立便捷的用户反馈与纠偏渠道。每一款情感人工智能产品都应内置畅通无阻的反馈机制,使用户能够轻松报告不良交互体验、伦理担忧或算法偏见案例。[29]这些反馈应能直接触发产品团队的技术复审与迭代流程,并定期向监管机构提交总结报告。这将推动形成一个从用户到企业、再到监管机构的持续改进闭环,使治理成为一个动态的、响应式的过程。

情感人工智能所带来的挑战,本质上是社会性的而非纯粹技术性的。因此,其解决方案也必然是一个需要政策精准发力、教育固本培元、伦理前置嵌入、公众广泛参与的系统工程。

结论与展望

情感人工智能与社会心态的互动是一个动态演进、充满张力的新兴领域,本文仅是这一宏大叙事的开端。基于情感补偿-情感疏离的双刃剑效应理论框架,未来研究可以在以下几个关键方向进行系统性深化。

开展多维度长期追踪研究,揭示情感人工智能在生命历程中的复杂影响。当前研究多局限于横断面调查,难以捕捉技术使用的长期效应和累积性后果。未来应建立覆盖全年龄段的大规模纵向研究队列,特别关注大脑与社会人格处于关键发展期的青少年群体,以及社会支持网络相对脆弱的老年群体。相关研究应综合运用行为观察、生理测量与深度访谈,持续考察长期使用情感人工智能对心理理论发展、共情能力塑造、现实社交模式变迁及自我身份认同建构的深远影响。这类研究不仅要揭示使用强度与社会联结质量之间的非线性关系,更要识别从情感补偿转向情感疏离的关键临界点,为制定精准的年龄分级政策和教育干预措施提供科学依据。

加强人机协同机制研究,优化情感人工智能的社会功能定位。重点探索情感人工智能作为社交催化剂的有效作用路径,研究如何通过算法设计促进现实社会联结。这需要开发内嵌联结促进机制的交互模式,如生成线下活动建议、协助用户总结感受以便人际沟通等。通过严格的对照实验,检验不同交互策略对用户社交意愿和行为的影响,建立人机协同的最优实践范式,确保情感人工智能始终作为人类社交的赋能者而非替代者。

拓展代际关系研究,探索人工智能技术对家庭动力学的影响。重点关注情感人工智能调节下的代际数字反哺现象,研究技术如何影响家庭沟通模式与关系质量。通过设计严谨的家庭实验,考察不同信息呈现框架对代际理解与支持的影响机制,开发促进家庭情感联结的技术解决方案。这一研究不仅具有理论创新价值,更能为构建数字时代的和谐家庭关系提供实践指导。

推进普惠性技术研究,构建包容性情感支持体系。情感人工智能的普及可能催生“情感支持鸿沟”。未来研究需要深入探讨如何通过技术创新和制度设计确保情感支持资源的公平可及。这包括研发适合农村地区和特殊群体使用的低成本、易操作技术装备;探索将基础性情感支持服务纳入公共服务的可行路径。同时,要特别关注技术适配性问题,开发支持方言交互、离线运行、文化适配的功能模块,防止技术壁垒加剧社会心理失衡。

总而言之,我们正处于人机关系深刻重塑的历史节点。对情感人工智能的探索,最终映照的是我们对人类自身情感价值与社会联结本质的再确认与再坚守。唯有通过持续的学术洞察、审慎的伦理反思和有效的社会行动,我们才能驾驭技术浪潮,最终迈向人机和谐、情感丰沛、社会团结的智能文明新图景。

(本文系国家重点研发计划项目“老年精神心理调适与慰藉智能技术研究”的阶段性成果,项目编号:2024YFC3606800)

注释

[1]许浩、程卿玄等:《人智交互中的AI世代:缘起、特征与未来展望》,《信息资源管理学报》,2025年第1期。

[2]张耀铭、张路曦:《人工智能:人类命运的天使抑或魔鬼》,《中国青年社会科学》,2019年第1期。

[3]彭俊杰:《面向机器智能的情感分析》,《自然杂志》,2024年第2期。

[4]Q. Xue-Liang et al., "Physiological Signals Based Affective Computing: A Systematic Review," Acta Automatica Sinica, 2021, 47(8).

[5]王子扬:《基于情感的聊天机器人互动设计研究》,《设计》,2024年第9期。

[6]刘平元、刘鼎、谢典瑾:《人工智能在大学生心理健康咨询中的应用研究》,《社会科学前沿》,2020年第14期。

[7]付熙、卢超、王敏娟:《老年人孤独感干预措施的研究进展》,《心理学进展》,2024年第3期。

[8]罗莉娟、王康等:《当人工智能面对人类情感:服务机器人情感表达对用户体验的影响机制》,《心理科学进展》,2025年第6期。

[9]M. D. Adewale and U. I. Muhammad, "From Virtual Companions to Forbidden Attractions: The Seductive Rise of Artificial Intelligence Love, Loneliness, and Intimacy—A Systematic Review," Journal of Technology in Behavioral Science, 2025.

[10]K. Granier et al., "Getting the Seal of Approval: A Critical Literature Review of the Evidence for the Use of the PARO Robotic Companion Seal with Older Adults with Cognitive Impairment in Long-Term Care," Journal of Aging and Long-Term Care, 2023, 6(2).

[11]J. Nelson et al., "The Balance and Integration of Artificial Intelligence Within Cognitive Behavioral Therapy Interventions," Current Psychology, 2025.

[12]O. P. Adako et al., "Revolutionizing Autism Education: Harnessing AI for Tailored Skill Development in Social, Emotional, and Independent Learning Domains," Journal of Computational and Cognitive Engineering, 2024, 3(4).

[13]F. Mushtaq et al., "Meta-Analytic Evaluation of AI-Based Chatbots and Self-Help Apps for Social Anxiety (2015–2025)," ProScholar Insights, 2025, 4(3).

[14]D. Saleela et al., "Development of AI-Driven Decision Support System for Personalized Housing Adaptations and Assistive Technology," Journal of Aging and Environment, 2025.

[15]K. Cortiñas-Lorenzo and G. Lacey, "Toward Explainable Affective Computing: A Review," IEEE Transactions on Neural Networks and Learning Systems, 2023, 35(10).

[16]谢俊、刘睿林:《ChatGPT:生成式人工智能引发人的异化危机及其反思》,《重庆大学学报(社会科学版)》,2023年第5期。

[17]J. M. Mccarthy et al., "All the Lonely People: An Integrated Review and Research Agenda on Work and Loneliness," Journal of Management, 2025.

[18]K. A. Jacobs, "Digital Loneliness—Changes of Social Recognition Through AI Companions," Frontiers in Digital Health, 2024, 6.

[19]R. F. Ciriello et al., "Compassionate AI Design, Governance, and Use," IEEE Transactions on Technology and Society, 2025.

[20]K. Malfacini, "The Impacts of Companion AI on Human Relationships: Risks, Benefits, and Design Considerations," AI & Society, 2025.

[21]司蕾:《人工智能在虚拟化社交平台中的应用困境与化解路径》,《电子商务评论》,2025年第7期。

[22]高智睿:《生成式人工智能的侵权责任探究》,《社会科学前沿》,2023年第12期。

[23]T. T. Khoei and A. Singh, "A Survey of Emotional Artificial Intelligence and Crimes: Detection, Prediction, Challenges and Future Direction," Journal of Computational Social Science, 2024, 7(3).

[24]陈紫林、祝帆帆等:《大语言模型在医疗健康领域的应用现状与前景展望》,《医学与哲学》,2025年第12期。

[25]B. Knowles et al., "Humble AI," Communications of the ACM, 2023, 66(9); R. Nair et al., Humble AI in the Real-World: The Case of Algorithmic Hiring, Adjunct Proceedings of the 4th Annual Symposium on Human-Computer Interaction for Work, 2025.

[26]Z. Weng et al., "Social Presence Oriented Toward New Human-Machine Relationships," Advances in Psychological Science, 2025, 33(1).

[27]C. Yan, "Construction of Artificial Intelligence Standards and Law Synergistic Governance System," Journal of Beijing Institute of Technology (Social Sciences Edition), 2024, 26(6).

[28]R. Herath, "Emotionally Intelligent Chatbots in Mental Health: A Review of Psychological, Ethical, and Developmental Impacts," International Journal of Computer Applications, 2019, 975.

[29]Y. Yu et al., "When Emotion AI Meets Strategic Users," Management Science, 2025.

责 编∕包 钰 美 编∕周群英

The Double-Edged Sword Effect of Affective AI on Social Support Perception: Compensation and Alienation

Gan Yiqun

Abstract: This paper systematically examines the dual impact of Affective Artificial Intelligence (Affective AI) on the perception of social support, proposing a theoretical framework of "emotional compensation-emotional alienation." Research indicates that Affective AI plays a significant compensatory role by providing customizable and easily accessible emotional support, addressing interpersonal deficits in specific groups (e.g., the elderly, individuals with social anxiety), enhancing individual emotion management capabilities, and expanding the accessibility of social support. However, its technological nature also harbors risks of alienation, such as interpersonal substitution, degradation of emotional abilities, and erosion of social support systems, which may weaken users' connections with real-world social relationships. To address this dual effect, this paper constructs a "human-centric" governance system, proposing comprehensive management pathways from four dimensions: policy guidance, educational intervention, ethical design, and public participation. It emphasizes the need for technology governance to ensure that Affective AI strengthens rather than weakens real-life interpersonal relationships, providing theoretical foundations and practical guidance for building a human-machine harmonious intelligent society.

Keywords: Affective Artificial Intelligence, social support, dual effect, technology governance, human-computer interaction

[责任编辑:包钰]