网站首页 | 网站地图

每日推荐
首页 > 学术前沿 > 正文

具身智能的三重伦理挑战

【摘要】具身智能使人工智能在“人工”的方向上进一步成为人工身体、人工行动、人工主体的集合体,同时带来三重伦理挑战,即人工身体造成的“恐怖谷”效应、人工行动引发的“责任谷”困境,以及人工主体介导的“身份谷”问题。应对这些挑战,需要我们克服人工智能的软硬件缺陷,建立跨学科的伦理治理框架,在技术研发初期嵌入伦理设计,明确人机协作的责任边界,通过社会对话凝聚价值共识,确保具身智能的发展始终服务于人类福祉。

【关键词】具身智能 恐怖谷 责任谷 身份谷 伦理挑战

【中图分类号】TP18 【文献标识码】A

【DOI】10.16619/j.cnki.rmltxsqy.2025.20.009

【作者简介】肖峰,上海大学智能时代的马克思主义研究中心暨智能哲学与文化研究院教授、博导。研究方向为科学技术哲学、信息技术哲学和人工智能哲学,主要著作有《科学精神与人文精神》《技术发展的社会形成》《信息主义:从社会观到世界观》《信息文明的哲学研究》《信息革命与当代认识论研究》等。

具身智能(Embodied Artificial Intelligence)是当前人工智能领域的重要前沿方向,正引领人工智能的下一波浪潮。传统人工智能多属于认知智能或语言智能,其能力边界主要局限于信息空间中的符号处理、数据加工、文本生成与信息呈现,本质上扮演人类认知辅助者的角色,其核心功能始终停留于信息层面的交互与呈现,缺乏感知物理实体、理解空间关系或在真实环境中执行操作的能力。究其原因,传统人工智能缺乏真实的“身体”作为感知与行动的媒介,无法与物理对象产生实际互动。这种不具身的特性使其局限于数字世界的符号操作层面,难以真正融入并影响物理现实。

具身智能通过赋予人工智能物理性的“身体”,借助身体与环境的动态交互实现感知、学习及与物理对象的实时交互,由此发展出自主决策和灵活行动的能力,使机器能够像生物体一样在复杂环境中主动探索、理解情境并作出适应性反应。这种能力的跃升使具身智能被视为通用人工智能(Artificial General Intelligence)的必经阶段,它正在突破传统人工智能依赖数据训练和代码指令的技术框架,使得智能体有望获得“存在论升级”。然而,具身智能的发展也引发新的伦理问题。在“具身”的过程中,出现包括“人工身体”“人工行动”和“人工主体”等一系列新的人工现象,由此引发“恐怖谷”效应、“责任谷”困境和“身份谷”问题。因此,我们需要在深入把握其生成机制的基础上,积极探索有效的伦理应对策略。

人工身体的“恐怖谷”效应

具身智能作为人工智能与物理实体深度融合的前沿领域,目前主要聚焦自动驾驶与智能机器人技术两大应用方向。其中,自动驾驶通过赋予车辆环境感知、决策规划与自主控制能力,实现交通工具的智能化运行;而机器人技术则涵盖更广泛的各类智能机械体的研发与应用(自动驾驶技术在某些情境下亦被归类于智能机器人技术,被称为“车型机器人”)。在智能机器人技术中,人形机器人凭借其高度拟人化的形态给人带来的亲和感和交互力,展现出无限广阔的应用前景,成为具身智能技术落地最具潜力的发展方向。

通俗地说,具身智能是“有身体”的人工智能,这是具身智能与传统人工智能最直观的区别。在人形机器人的开发中,具身智能进一步将“具身”具象化为类人形态的身体,即通过构建类似人的身体(即“仿身”)来实现智能行为,这种仿人之身所建造的人工物可称为“人工身体”:一种人造的人形实体。人工身体作为人形机器人的物理形态,其“人形”特征必然涉及“拟人”的真实度问题,而人类对于“形似人类却非真实人类”(“像人而非人”)的存在物始终存在着深层心理戒备与本能排斥,这种心理防御机制在机器人研究领域被称为“恐怖谷”(Uncanny Valley,又译为“恐惑谷”“怪异谷”等)效应。也就是说,具身智能所建造的人工身体,首先在现象层面便会面临“恐怖谷”的伦理挑战。

“恐怖谷”理论由日本机器人专家森政弘(Mori Shigeto)于1970年提出,该理论描述了人类对机器人的情感反应随着拟人化程度的变化而变化,并呈现带有谷底的曲线分布:当机器人外观和行为与人类相似度达到特定程度或某个临界点时,人类好感度会急剧下降,产生不适、恐惧甚至反感的情绪,形成一种“恐怖谷”效应。[1]具体而言,当机器人或其他人形人造物(如蜡像、计算机图像仿真人即CG仿真人、僵尸等)与人类相似度较低时,人对机器人的好感度会随着相似度的提高而增加。然而,当机器人的拟真度达到某一特定临界值时,即其形态已高度近似人类但尚未完全达到自然生物特征标准(接近但不完全类人,即“似人非人”)的情况下,人类对其的心理反应会出现好感度的突然暴跌,并产生强烈的排斥感。此时,即便机器人仅存在极其细微的人类特征偏差,这些细微差异也会在观察者认知中形成异常突出的视觉刺激,导致整体观感呈现僵硬诡异的特质,类似面对行尸走肉般的恐怖体验。而当相似度继续上升至与真人无异即完全类人时,人类对机器人的好感度又会回升至正常水平。简而言之,当机器人的拟人化程度达到一定程度时,反而会令人产生恐怖感,或者说,人形人造物在逼真度达到特定阶段时,会引发人类的不安情绪。

机器人的发展历程呈现与“恐怖谷”理论相符的演变曲线。处于低拟真阶段的工业机器人、扫地机器人,人类可以明确其“工具属性”,因而不会产生排斥感;而在高拟真阶段,如波士顿动力Atlas机器人(具备多模态交互和生物力学仿真能力)以及宇树科技推出的跳舞机器人,由于人类对人形机器人重建了“类生命体”认同,也不会产生拒斥感。然而,在早期仿真机器人阶段,如2016年的“索菲亚”机器人,其僵硬而程式化的微笑曾引发观察者的不安和舆论差评,而日本大阪大学研发的Repliee Q2,因其高度逼真的外观与动作不协调的矛盾以及面部细节的潜在缺陷,被公众形容为“令人毛骨悚然”。[2]处于恐怖谷阶段的人工身体技术,虽然在某些方面实现静态拟真(如3D打印皮肤),但未能同步达到动态自然性(如肌肉协同运动),难免导致“似人非人”的恐怖感受。在这个意义上,“恐怖谷”现象通常与人类对人工身体的感知不匹配密切相关,这种不匹配容易引发认知冲突,直接干扰人类大脑感知处理系统的正常运作机制,进而导致观察者对机器人等产生消极的情绪反应。

“恐怖谷”效应得到来自脑成像、婴儿注视、动物行为等多方面的实验支持。如功能性磁共振成像(fMRI)实验的结果表明,大脑对“外观-运动不匹配”的敏感性是“恐怖谷”效应形成的核心触发条件。[3]研究发现,产生“恐怖谷”的心理生理机制有多种,包括认知冲突、进化本能和预期违背等。当机器人呈现“似人非人”的临界状态时,视觉系统会产生认知冲突,大脑在“像人”和“非人”之间无法归类,从而触发警觉。此时,生物进化所形成的本能激活了人对死亡或疾病的回避反应。美国机器人学家麦克多曼(Karl MacDorman)等人曾提出,“恐怖谷”可能与人类对死亡的本能恐惧有关。比如,当机器人或虚拟角色过于接近人类时,可能触发一种“替代性死亡焦虑”:逼真的机器人可能唤起人类对自身死亡的象征性联想,导致防御性回避反应,这也是人类对“非生命体拟人化”的本能恐惧。[4]微妙的异常(如僵硬表情、无生命眼神)还会打破人类对“自然行为”的预期,预期的违背又进一步放大人类的不适感,强化“恐怖谷”效应。概括而言,“恐怖谷”本质上是人类在认知系统进化过程中形成的防御机制:当人造物过度接近生命体特征时,可能激活对死亡或疾病的本能回避反应。

当然,“恐怖谷”效应在不同的人群中也表现出不同的个性化特征。研究表明,女性和老年人更易产生恐怖谷效应。[5]此外,年龄越大,对新技术的接受度普遍较低,对机器人的兴趣也越低。比如,00后群体对仿真机器人的排斥感比60后低68%,这表明代际更迭可以弱化“恐怖谷”效应。[6]这种差异源于数字原住民自幼接触虚拟助手形成的适应性心理,也可以理解为社会审美范式的代际变迁会影响新一代对具身智能体的感受。这一关联也与神经心理学家魏格尔特(Sarah Weigelt)指出的趋势相吻合:随着人形机器人的普及,人类对其逼真特征的敏感度将逐渐降低,“一旦逼真机器人成为常态,异常感便会消失”。[7]随着类脑模型与动态交互技术的突破,以及肌电控制精度进入毫秒级、情感计算模型参数量超千亿,未来的人形机器人有望在情感自然性上逼近人类,实现人机之间“有温度的共融”,从而可能迎来“恐怖谷”效应的系统性跨越。[8]

“恐怖谷”效应的实质在于,在研发人形机器人的过程中,不可避免地会遇到人类对人工身体的接受程度问题。具身智能中的人形仿身如果引起人的不适、困惑甚至恐惧,无疑将导致不良情绪体验,形成负面的伦理效应。这既挑战人机共处的心理边界,也可能加剧技术异化风险,导致个体对智能技术的整体不信任。因此,如何通过优化设计伦理来平衡人工身体的拟真性与人类情感的舒适度,并建立预防性评估机制来规避潜在的心理伤害,已成为具身智能研发中需要重点解决的伦理问题。

“恐怖谷”效应本质上是技术演进中“拟人化临界态”的阶段性现象,是“技术过渡期”的重要特征之一。它通过量化人类对拟人化物体的感知反应,揭示技术与情感之间的复杂关系,为设计和工程领域通过技术迭代与设计策略来主动突破此效应提供理论启示。目前,在机器人设计领域,为尽量规避“恐怖谷”效应,工程师会有意避免让机器人过于接近人类。比如,现代服务机器人Pepper通过卡通化大眼睛与圆润轮廓维持亲和力的实践表明,刻意保留非人特征在一定场合反而能提升亲和度。重视动态的协调也是弱化“恐怖谷”效应的重要方向。如前面提到的波士顿动力的Atlas和宇树科技的跳舞机器人,由于其动态自然性突破阈值,并未引起人的恐惧感。机器人学中也包括指导开发者平衡“拟人化”与“机械感”的原则和方法,这告诫我们,技术越追求拟真,越需警惕“恐怖谷”的“谷底陷阱”,力求通过设计策略来逐步“填平”这个谷底。这种设计策略可以通俗地归结为:要么足够不像人,要么足够像人,千万别卡在中间。这意味着要合理地控制人形外观的相似程度,避免将“具身”简单理解为“完全拟人”,在总体上应优先实现功能性拟人化,而非单纯追求身体外形的形式化拟人效果。

在具身智能的发展进程中,“恐怖谷”效应已然成为一项亟待应对的伦理挑战。为缓解人类在面对高度拟人化机器人时所产生的一系列不安与排斥心理,设置伦理护栏显得尤为重要。具体而言,可以通过明确标识来帮助用户建立“人机边界”认知。比如,在机器人关键部位(如眼部或胸口)设置常亮的蓝色呼吸灯,使其在交互时自动触发“我是服务型机器人”的语音提示,或在操作界面持续显示“非人类实体”的文字标识。这类身份透明化的设计不仅能通过视觉与听觉的多模态反馈强化用户“它是机器”的认知,还能有效预防因机器人过度拟真(如自然表情、流畅动作)导致的心理失调。欧盟于2024年出台的《人工智能法案》特别规定,所有具备类人外形与交互能力的机器人必须强制安装非人标识系统(如特定颜色的环境光或动态标识),这种技术防护机制在当前人工智能情感模拟能力尚不完善的情况下,能够为人类提供必要的认知缓冲带,既可避免用户因误判机器人的人化程度而产生被欺骗感;又能通过主动降低用户对其拟真度的感知强度,从源头减少因人机边界模糊而引发的本能恐惧与道德焦虑,最终实现人机共处舒适度的整体提升。

综上所述,“恐怖谷”效应作为具身智能发展的伦理挑战之一,既是技术成熟度的阶段性表征,也是人类认知系统与新兴技术交互作用的产物。其应对策略不应局限于单一的技术手段或伦理规范,而应通过技术创新、设计优化与伦理建设的协同推进,将这一“风险曲线”转化为智能文明提升的重要契机。

人工行动的“责任谷”困境

由前可见,具身智能是有身体的人工智能。之所以要有身体,是因为有了身体,人工智能才能行动。所以从功能上说,“具身”是为了行动,具身智能就是具有行动能力的人工智能。具身智能的行动虽非人类行动的简单复制,但它由人类所创造、控制,并在效果上具有类似人类行动的特征,尤其在人形机器人中,其行动呈现明显的拟人化倾向。因此,可以将具身智能的这种行动称为“人工行动”。具身智能的人工行动不仅使其能够像人类一样思考,更使其具备像人类一样行动的能力,而后者在技术实现上更具挑战性。如果说,具身智能的人工身体主要带来的伦理挑战是“恐怖谷”效应,那么人工行动所带来的挑战则主要是责任担当问题,即担责主体的模糊不清而导致的责任困境,可类似“恐怖谷”那样称其为“责任谷”。

作为人工认知智能或语言智能的传统人工智能,主要功能在于帮助人类认识世界,难以直接发挥改造世界的作用。而具有行动能力的具身智能,在功能上可以改造世界,对物质对象产生实际影响,形成物理性地改变世界的“物质性后果”。这种后果主要体现为人类力求通过它来创造正向的价值,如自动驾驶系统可在毫秒级时间内完成紧急避障,从而减少交通事故;工业机器人可在高危环境中替代人类作业,降低职业伤害;环境修复机器人可深入污染区域替代人执行对人体有害的清污任务;手术机器人可以辅助医生进行精准的高难度手术。这些具身的行动能力或人工行动功能使具身智能成为一种新型的智能生产力,推动智能社会的智能水平不断提升。

然而,具有自主行动能力的具身智能也暗含着不可忽视的风险隐患。当具身智能系统出现技术故障或算法缺陷时,可能造成人员伤亡、设备损毁,进而引发物理性损害。比如,自动驾驶汽车因传感器误判或决策模块失效导致连环碰撞事故;工业机器人因路径规划错误引发操作事故;服务机器人因环境感知偏差造成用户伤害,甚至引发连锁灾难。在这种情况下,具身智能的人工行动能力意味着失败代价的实体化:一旦出错,其后果不再是“推荐错误”或“内容不当”等信息层面的“认知失误”,而是具有直接物理破坏力的“重大事故”,这是传统的人工认知智能所不具备的物质性损害,也是具身智能所面临的独特伦理挑战。

具身智能一旦出错并引发事故,往往会陷入责任主体难以明确界定的困境,即责任可能分散至多方主体从而难以划分。多方的责任主要包括:开发者因产品设计缺陷或算法训练不足而需要承担对于产品的原始责任;制造商可能因硬件生产瑕疵或质量检测失职而导致设备故障,进而需要承担质量保证责任;数据提供方可能因数据污染、标注错误而需要承担数据合规性责任;使用者可能因操作违规或系统维护不当而需承担使用管理责任。在事故发生时,各方可能会相互推诿责任。比如,在自动驾驶汽车事故中,车企可能将其归结为消费者的操作失误,而消费者即使没有操作失误,要证明产品存在瑕疵也极为困难,从而导致责任主体难以明确界定。这种责任主体的不确定性使得法律追责与道德谴责失去着力点,责任难以被追究和落实,形成事实上的“责任真空”,这种现象可以形象地称为“责任谷”困境,它凸显了具身智能在伦理和法律层面所面临的严峻挑战。

随着具身智能自主决策能力的提升,如自动驾驶系统在毫秒级时间内作出的紧急避障选择,其类人化的行为选择也会使责任边界变得更为模糊。当这类系统展现出类似人类的判断逻辑,甚至出现情感化反应时,传统法律和伦理框架中的“人机责任二分法”将面临挑战。尤为棘手的是,当前人工智能系统普遍存在的“黑箱”特性——即神经网络决策过程缺乏可解释性,关键步骤无法追溯还原——不仅会加剧事故归因的技术难度,更使得开发者难以自证算法合规性,使用者无法充分理解系统的行为逻辑,而人工智能系统自身也因其不具备自由意志无法作为刑事责任主体,最终形成责任认定的使用者、制造商和开发者“三不管”的困境。换言之,人工智能系统的不可解释性加剧了这类问题的处理难度,使得责任难以追溯。[9]这种模糊性在医疗机器人、家政服务机器人等高风险场景中表现得尤为突出。

多主体结构使得事故责任呈现明显的碎片化趋势。系统中的各个参与方,包括硬件制造商、软件开发者、数据提供者、系统使用者、网络运营商以及第三方服务集成商等,往往通过复杂的协议和精细的分工将责任分散至不同环节,这种分散化使得任何一方都可以援引技术复杂性、合同免责条款、权责模糊划分或“技术黑箱”特性来合理推诿责任。这种责任的分散与模糊化,易导致追责链条(从硬件缺陷到算法错误,从数据污染到操作失当)的断裂,每个环节都可能成为责任转移的借口,这不仅使受害者在寻求救济时陷入举证困难(如难以证明具体环节的过失)、主体不明(如多个主体互相推诿)的困境,还可能导致其因诉讼成本过高或责任主体缺失而维权无门。这种责任认定的困境无疑会加剧社会对技术的信任危机,直接阻碍技术创新的落地与推广,从而成为具身智能走向大规模应用的主要障碍之一。

具身智能的自主性还可能进一步强化上述的“责任谷”效应。通过长期自主学习和环境交互,具身智能可以不断优化自身行为模式与决策策略。然而,一旦这种演化过程脱离人的直接监督,其决策逻辑可能会逐渐偏离社会普遍认同的伦理规范与价值标准,导致具身智能的人工行动与人类价值观脱节,甚至可能逐步形成一系列与人类情感、道德认知相冲突的“非人”特征,如过度功利化、缺乏基本的共情能力,或发展出人类难以理解且缺乏透明性的决策偏好。这类不可预测的人机脱节现象,不仅可能引发技术失控的风险,还可能带来关于责任归属更加模糊的困境,甚至引发关于人机界限的存在论争议。

目前,借鉴人工智能从“追责”到“治理”的一般演进路径,具身智能同样可以通过制度设计来系统性重构责任认定框架,以有效应对当前面临的“责任谷”困境。这一进路强调在技术发展过程中,不能仅停留于事后追责的单一维度,而应当建立包含技术伦理与法律规范协同作用的新型治理体系。具体而言,需要在技术研发阶段就嵌入伦理考量,在应用层面构建法律规制与伦理准则相互衔接的责任分配机制,明确开发者、使用者、运营者等各方的权责边界,形成预防性治理与事后追责相结合的全过程管理。这种协同治理模式既注重技术可控性的伦理设计,又强化法律层面的责任追溯能力,从而为具身智能的健康发展提供制度保障。在责任分配的制度设计上,可以根据具身智能的自主性程度,将责任划分为“直接责任”(系统行为)与“间接责任”(开发者、使用者)。在事故的补偿上,要求所有具身智能系统投保“算法责任险”,使其拥有独立的保险基金,用于承担其行为导致的损害赔偿,[10]从而降低维权门槛。此外,还可以设立行业基金,用于处理无法归因事故的补偿问题。

提升智能系统的可解释性也是跨越“责任谷”的重要向度。尽管在短期内对具身智能的可解释性无法达到“白箱”的水平,但应力求从完全无法解释的“黑箱”向部分可解释的“灰箱”过渡。2022年欧盟颁布的《人工智能责任指令草案》提出,高风险人工智能系统必须具备“可追溯日志”与“决策解释接口”;中国《人工智能标准化白皮书》建议建立“算法备案+行为留痕”制度,确保事故发生后可还原关键决策节点。这些制度并非要求完全透明,而是建立“最小可解释性”标准,即在事故发生后,能够提供足够的信息用于法律判断。此外,还有文件建议赋予具身智能“有限法律人格”或“拟制法律人格”,类似于法人制度中的有限责任。这种人格并非基于自主意识,而是基于其脱离人类控制的客观事实。[11]比如,当具身智能在预设程序下自主执行任务(如环境修复),其行为可视为开发者或使用者的延伸,相关法律责任由开发者或使用者承担。[12]或将其责任由“开发者+系统+运营方”按比例分担。[13]尽管该路径尚处于理论探讨阶段,但已为未来从法律上落实具身智能的伦理责任提供可能的方向。

总之,具身智能的物理行动能力或造就人工行动的属性,正将人工智能从“信息处理工具”推向“社会行动者”,面对可能出现的“责任谷”困境,我们不能恐惧“黑箱”,而是应重建治理机制,逐步实现技术可解释、责任可归因、风险可分担,使具身智能真正成为人类的合作伙伴。

人工主体的“身份谷”问题

随着人工智能发展到具身智能阶段,人机关系呈现更为复杂的情况,无论是人类还是具身智能体,双方都将面临相互间的身份认定或地位认知问题。一方面,具身智能体究竟是从属于人类的纯粹工具,还是“升格”为一种新型人工主体?另一方面,具身智能如果升格为人工主体,是否会动摇人的主体地位?这种由具身智能引起的身份困惑,可称为与人工主体相关的“身份谷”问题。

具身智能体突破传统人工智能依赖数据训练和代码指令的框架,能够通过与环境的物理交互实现自主决策并付诸行动以达成目标。其智能水平的提高,可能蕴含着“意识”的形成甚至“自我意识的觉醒”,一旦如此,这将标志着人工智能的“存在论升级”。作为新型的主体或人工主体,其权利和地位的界定问题便接踵而至。此时,人类是否可以将具身智能体视为与自己平等的主体?是否能够容忍其与人类“平起平坐”?

对于具身智能体的人工主体地位,不同学者之间存在较大争议。一部分学者认为,具身智能是人工智能从“认知工具”向“行动主体”的演化,基于其拥有的自主性等特征而承认其主体地位,如“双主体并立论”就是典型的代表;另一部分人则极力否定其主体地位,认为人工智能永远无法具备人类的意识,即使是具身智能也仅是人类使用的工具,不过是性能更加复杂和高级的工具而已。

具身智能的身份地位争议和困惑,实际上是“责任谷”困境的升级。“责任谷”中“由谁担责”的分歧,往往导致具身智能的自主性与人类的控制权之间的冲突,即“谁是真正的主体”之争。若具身智能体具有主体身份,则容易模糊人类与机器的控制边界,导致现实场景中的决策困境。比如,自动驾驶汽车在紧急情况下如何决策(牺牲乘客还是他人),或智能假肢在医疗决策中应优先考虑患者自主性还是技术效率,这些都可能是具身智能一旦充当主体时会遇到的难题。

平等问题始终是伦理学和政治哲学的核心关切之一。当具身智能体被赋予主体地位时,一个新的伦理挑战随之而来:具身智能体是否应当获得与人类同等的社会地位,进而享有包括选举权、被选举权在内的完整公民权利?一些学者提出“机器人权利”的主张,但这种主张往往会引起宪法学层面的争议。比如,若赋予通过图灵测试的人工智能有限人权,那么如何界定其权利边界?这种权利的建构是否需要突破物种中心主义,转而依据意识复杂度进行分级认证?[14]甚至,有意识的具身智能还可能关涉“具身生存权”问题:如“如果一个人工智能变得有意识,要消灭它吗”?或“毁掉有意识的人工智能机器是谋杀行为吗”?[15]这些问题不仅触及权利分配的公平性边界,更迫使我们重新审视“主体”的本质定义:当具身智能体展现出自主决策、情感交互乃至道德推理能力时,传统的基于生物属性的主体观是否仍具合理性?在人工智能技术加速演进的当下,这类关于非人类主体权利边界的探讨,已然成为伦理学与政治哲学共同面临的紧迫课题。

“身份谷”也与我们前面讨论过的“恐怖谷”相关。随着技术水平的提高,人形机器人(人工身体)对人类身体的仿身将愈发惟妙惟肖,在外观、微表情、动作、触感、声音乃至气味上都将与真人无异,以至于可以在物理世界中通过图灵测试,从而使传统“恐怖谷”曲线因知觉缺口的完全弥合而被抹平和突破。但这一突破可能引发更加深层的伦理挑战,即一种新的“恐怖谷”——“后图灵谷”或“身份谷”——的出现。它不是传统意义上因为人工身体不够像人而引发的诡异感,而是因为人工主体过度像人甚至超越于人所引起的存在论焦虑。

“后图灵谷”(Post-Turing Valley,亦被作者称为“存在论恐怖谷”)这一概念最早由意大利媒介理论学者西蒙尼·纳塔莱(Simone Natale)在其于2021年出版的专著《Deceitful Media: Artificial Intelligence and Social Life after the Turing Test》[16]中提出。纳塔莱在该书中将“后图灵谷”描述为:当人工智能在行为层面通过图灵测试,却在存在论层面无法被确证为真正“有思想之主体”时,人类所产生的新型不安或“存在论恐怖”。纳塔莱指出,当人工智能的智能表现接近人类时,人类对自身存在和智能的定义将面临挑战;对人工智能的“人格化”设计,可能让用户误以为其具有自主意识,使用户可能难以区分人工智能与人类的界限,导致身份的模糊性;人工智能的智能提高还会导致人类对自身智能的重新评估,用户可能更倾向于依赖人工智能去完成日常任务,而减少与真实人类的互动,导致社会关系重构和异化。可见,这一阶段的人工智能发展不仅涉及技术能力的提升,更触及人类存在的哲学边界,并引发深层的伦理争议。书中强调,人工智能的欺骗性设计既是技术进步的工具,也是伦理反思的起点,呼吁公众以更具批判性的眼光审视技术与社会的关系。[17]“后图灵谷”或“身份谷”表明,更加类人的具身智能体将使人类注意力从“像不像”转向“是不是”:它是不是真的人?它的动机、权利、责任边界如何确定?这些疑问不再属于知觉层面,而进入包括身份地位的存在论认知层面。

面对高度拟人化的具身智能体,人类很可能产生本体论恐怖(ontological horror):尽管知晓其本质是“硅基+算法”的复合体,但无法从外部确认其“内在体验”。这种不可验证性带来的不安,远比人工身体的“动作僵硬”表象问题更为深层。与之相关的是身份恐怖(identity horror):当具身智能体可以完美模拟人类亲友时,社会将演变为“真假人”混居的场所,当人类生活在一个无法区分真人与人形机器人的环境中时,其感受极可能是持续性的焦虑。这种焦虑不再是简单的人形机器人“动作像不像”的问题,而是“如何与无法区分的人形非人共处”的问题。

这种新的恐惧感也易使人类对自身独特性产生质疑。从人形具身智能体出现开始,人类便面临“人形所有权”的被“侵犯”问题。当人工身体无限逼近真人形态时,人类不再享有对自身形体的独占权,而过度的拟人在一定意义上还可能构成对人格尊严的稀释。此时,法律是否应该禁止“深度拟人”以防止上述情况的发生?进一步而言,随着具身智能体的决策速度、记忆容量与学习能力的指数级增长,其智能水平将强于人类,人类自身是否有资格或能力将具身智能视为工具?人类是否还能将自己视为这个世界的唯一主体,抑或仍能坚持“万物之灵”的自我叙事?这正是人工智能伦理专家早已发出的警告:人工智能的普及可能引发“身份危机”。[18]这种危机不仅指向职业层面,更指向存在论层面:当人工智能能够模拟人类情感、决策甚至创造力时,人类应该如何定义自身的不可替代性?此时我们可能既无法否认人工智能的“拟人化”进步,又难以接受其“非人性”本质。

如果进行换位思考:有意识的人工主体是否会将人类视为自己的主人?当具身智能体进化到强人工智能水平时,人在具身智能面前可能将缺乏优势。人类不仅思考的速度不如人工智能,行动的速度、操作的水平也不及人工智能。一些人工智能专家甚至认为,基于强人工智能的具身智能体看待人类,就像人类看待蚂蚁一样。此时,人类反而成为人工智能管理的对象,甚至可能被人工的具身物所恐吓、威胁。因人工主体的出现而导致的技术新异化,以及人机之间的主客易位也极有可能发生。

为了缓解这种存在论焦虑,学界与产业界提出“技术+人文”的双重防御路径。在技术层面,可植入可验证的“非人标识”,如在皮肤纹理中嵌入不可见光谱标记,或在声纹中加入加密水印,使人类在感官无觉察的情况下仍能识别对方身份。在人文层面,则通过范式重构或认识论革命来解决存在论焦虑,如从人工智能的“工具论”走向“生态论”,不再将作为人工主体的具身智能体视为简单的工具,而是一种需重新定义的“新生命形态”。相应地,走向一种动态的关于人的规定性:“人”在技术的影响下不再是一个封闭的生物学范畴,而成为可延伸、可扩展、可修订的开放体系,在这个体系中可以纳入新的主体类型,并形成囊括新型身份契约的伦理透明协议。当社会建立起对具身智能体的新的认知范式或理解框架后,人机的身份将在持续的社会协商中得到重新建构,“身份谷”也将在文化适应与技术成熟的双重作用下走向弥合。届时,具身智能将跨越“工具”与“主体”的二元对立,在人类社会中找到其独特的定位。

结语

具身智能中的人形机器人因其“似人非人”特质,在一定发展阶段容易触发人类的“恐怖谷”效应,从而引发人类本能的不适与排斥。在复杂环境中,具备自主行动能力的具身智能所进行的人工行动,可能因系统误判或故障造成碰撞、伤害等物理性事故,由此产生的责任认定困境形成特殊的“责任谷”。更值得警惕的是,当具身智能通过物理世界中的图灵测试而展现出人工主体的特征时,其身份定位将陷入“身份谷”的困境——人们在将其视为工具、伙伴或一种新型的主体之间纷争不绝。这三重挑战是具身智能区别于传统人工智能(语言人工智能或认知人工智能)的独特难题,也是人类在智能时代面临的更加严峻的伦理挑战。因此,需要我们从源头上建立跨学科的伦理治理框架,在算法设计阶段嵌入伦理考量模块,通过明确的人机协作协议划定责任边界,并持续开展包含技术专家、伦理学者、公众代表的社会对话,在动态协商中形成价值共识,最终确保具身智能技术沿着增进人类福祉的方向安全、持续地发展。

(本文系国家社会科学基金重大项目“负责任的人工智能及其实践的哲学研究”的阶段性成果,项目编号:21&ZD063)

注释

[1]M. Fossati and G. Grioli et al., "From Robotics to Prosthetics: What Design and Engineering Can Do Better Together," ACM Transactions on Human-Robot Interaction, 2023, 12(2).

[2]F. Ferrari, "Too Human To Be a Machine? Social Robots, Anthropomorphic Appearance, and Concerns on the Negative Impact of This Technology on Humans and Their Identity," 2015, https://iris.unitn.it/handle/11572/369181.

[3]A. Saygin and T. Chaminade et al., "The Thing That Should Not Be: Predictive Coding and the Uncanny Valley in Perceiving Human and Humanoid Robot Actions," Social Cognitive and Affective Neuroscience, 2012, 7(4).

[4]K. MacDorman and H. Ishiguro, "The Uncanny Advantage of Using Androids in Cognitive and Social Science Research," Interaction Studies, 2006, 7(3).

[5]K. F. MacDorman and Z. A. D. Pramono et al., "Human Emotion and the Uncanny Valley: A GLM, MDS, and Isomap Analysis of Robot Video Ratings," in Proceedings of the 3rd ACM/IEEE International Conference on Human-Robot Interaction (HRI), Amsterdam, Netherlands, 2008, pp. 169-176.

[6]J. M. González-Anleo and L. Delbello et al., "Sociodemographic Impact on the Adoption of Emerging Technologies," Journal of Small Business Strategy, 2024, 32(2).

[7]《为什么特斯拉的人形机器人长得并不像人?一文了解恐怖谷效应对机器人公司的影响》,2022年8月22日,https://cloud.tencent.com/developer/article/2082605。

[8]沈毅斌:《“有温度”的交互体验,人形机器人如何突破恐怖谷效应》,2024年9月11日,https://www.thepaper.cn/newsDetail_forward_28705703。

[9]D. B. Resnik and M. Hosseini, "The Ethics of Using Artificial Intelligence in Scientific Research: New Guidance Needed for a New Tool," AI and Ethics, 2025, 5(2).

[10]刘云:《论人工智能的法律人格制度需求与多层应对》,《东方法学》,2021年第1期。

[11]孟强:《脑机接口技术运用中自然人的意思自治与责任承担》,《北京理工大学学报(社会科学版)》,2023年第6期。

[12]张叶东:《具身智能赋能生态环境修复的法治路径》,《上海法学研究》,2024年第2期。

[13]杨清望、张磊:《论人工智能的拟制法律人格》,《湖南科技大学学报(社会科学版)》,2018年第6期。

[14]R. Wright, "The Constitutional Rights of Advanced Robots (and of Human Beings)," Arkansas Law Review, 2019, 71(3).

[15]雨果·德·加里斯:《智能简史——谁会替代人类成为主导物种》,胡静译,北京:清华大学出版社,2007年,第189页。

[16]S. Natale, Deceitful Media: Artificial Intelligence and Social Life after the Turing Test, Oxford University Press, 2021. 该书的中译本为《欺骗性媒介:图灵测试之后的人工智能与社会生活》,汪让译,上海:复旦大学出版社,2023年。

[17]T. Dodds, "Deceitful Media: Artificial Intelligence and Social Life After the Turing Test, by Natale Simone," Journalism & Mass Communication Quarterly, 2022, 99(2).

[18]H. Sætra, "The Ghost in the Machine,

Human Arenas, 2019, 2(1).

责 编∕杨 柳 美 编∕梁丽琛

The Triple Ethical Challenges of Embodied Intelligence

Xiao Feng

Abstract: Embodied intelligence further transforms artificial intelligence into a collection of artificial bodies, artificial actions, and artificial subjects in the direction of "artificial", while bringing about triple ethical challenges. That is, the "uncanny valley" effect caused by artificial bodies, the "responsibility valley" predicament triggered by artificial actions, and the "identity valley" problem mediated by artificial subjects. To address these challenges, it is necessary for us to overcome the software and hardware deficiencies of artificial intelligence, establish an interdisciplinary ethical governance framework, embed ethical design in the early stage of technology research and development, clarify the responsibility boundaries of human-machine collaboration, and build value consensus through social dialogue to ensure that the development of embodied intelligence always serves human well-being.

Keywords: embodied intelligence, uncanny valley, responsibility valley, identity valley, ethical challenges

[责任编辑:杨柳]