网站首页 | 网站地图

每日推荐
首页 > 学术前沿 > 正文

人工智能应用中的“耻感”现象及其伦理风险探析

【摘要】当前,人工智能技术快速发展并得到广泛应用,人们在对人工智能进行积极评价的同时,也存在一种值得警惕的社会现象:部分个体倾向于隐瞒、拒斥、贬低人工智能的应用,以及对人工智能的用户进行否定性评价,产生人工智能应用的“耻感”。这可能会强化人工智能的污名化,引发用户的心理焦虑,从长远来看可能影响公众对人工智能技术的信任与接受。为此,可从观念、制度、互动和个体四个层面对其进行伦理治理:在观念层面,应重视媒体在观念传播中的关键作用;在制度层面,应变革学术管理理念与模式,鼓励负责任地使用人工智能;在互动层面,为人-机协同方式提出更多的可行框架;在个体层面,直面人工智能引发的创造性破坏,在应用中提升人工智能素养,进而推动营造一种更为积极合理的智能文化。

【关键词】人工智能 “耻感” 现象 伦理治理 智能文化

【中图分类号】TP18/B82-057 【文献标识码】A

【DOI】10.16619/j.cnki.rmltxsqy.2025.20.007

【作者简介】杜严勇,同济大学人文学院教授、博导,同济大学马克思主义研究院研究员。研究方向为人工智能伦理、爱因斯坦研究,主要著作有《人工智能伦理引论》《爱因斯坦社会哲学思想研究》《人工智能安全问题及其解决进路》(论文)等。

当前人工智能技术发展日新月异,并在诸多领域得到广泛应用。习近平主席向2025世界智能产业博览会致贺信,指出:“当前,人工智能技术加速迭代演进,正在深刻改变人类生产生活方式、重塑全球产业格局。”[1]在人工智能的助力下,人们可以显著提高生产效率,提升工作业绩,其积极效应不言而喻。但是,人们在对人工智能技术给予积极正面评价的同时,也有部分群体或人士出于各种原因,不仅隐瞒、拒斥、贬低对人工智能的使用,还对其他使用人工智能的用户进行否定性评价,由此形成一种人工智能应用的“耻感”。这种社会现象关系我们是否应该使用与如何使用人工智能,以及如何理性认识人工智能的负面效应等若干关键问题,因此应当予以重视。

人工智能应用中的“耻感”现象

萨卡尔(Advait Sarkar)把将负面的判断与对人工智能的应用联系起来的社会现象称为“人工智能羞耻”(AI Shaming)现象。[2]吉拉伊(Louie Giray)将其定义为对个体或组织使用人工智能生成内容或执行任务进行批评与贬低的行为。[3]总的来看,当前人工智能应用中的“耻感”主要有以下较为典型的表现。

隐瞒现象。为了避免对人工智能的滥用与误用,是否应该对某种作品是不是以及多少比例由人工智能生成进行检测,是社会各界普遍关注的话题。大多数用户表示支持人工智能检测工具的研发与应用,但由于担忧被错误指控或批评,又对用于检测的人工智能工具存有怀疑,有的用户则存在不愿意让别人知道自己使用人工智能的想法。2023年4月,OpenAI委托某机构针对该问题进行了一项调研,结果显示在全世界范围内有80%的受访者表示支持使用人工智能检测工具。同时,OpenAI对ChatGPT用户进行调研,结果显示有69%的受访者相信人工智能检测技术会导致对使用人工智能的虚假指控。近30%的受访者表示,如果ChatGPT部署水印技术而其他公司没有,他们将减少使用ChatGPT。[4]

事实上,人们倾向于隐瞒自己使用人工智能的现象较为普遍。2024年,微软和领英公司对来自31个国家的31000名受访者的调研表明,在工作中使用了人工智能的受访者当中,有52%的人不愿意承认自己在最重要的工作中使用了人工智能。[5]学术界存在的人工智能“幽灵作者效应”(AI Ghostwriter Effect)也是一种典型的隐瞒现象。虽然用户不认为他们自己是人工智能生成内容的作者或所有者,但他们并不愿意公开人工智能的作者身份,也不承认人工智能的具体贡献,仍然倾向于以自己的名义公开发布成果。[6]

随着人工智能大模型的应用日益广泛,用户通常被要求或鼓励公开其使用情况,但仍有用户倾向于隐瞒自己使用大模型的情况。有学者对180名大模型用户进行在线调研,结果发现有112人(占62%)承认他们有隐瞒使用大模型的经历。隐瞒情况可以分为两种类型,我们把“不主动公开,但被问起则会承认”称为“被动隐瞒”,同时把“被问起也会否认”称为“主动隐瞒”。在不同的应用场景中,被动隐瞒和主动隐瞒的比例略有区别。对300名大模型用户的在线调研表明,被动隐瞒比例从高到低的场景分别为社交互动(92%)、学术写作(70%)、工作任务(68%)、创意写作(66%)、学校作业(62%)等,主动隐瞒比例从高到低的场景分别为社交互动(70%)、创意写作(52%)、学术写作和学校作业(均为50%)、工作任务(46%)等。而且,用户的个体差异,如性别、年龄、受教育程度等对隐瞒意图没有显著影响。也就是说,用户对于隐瞒使用大模型的情况具有较高的一致性。[7]

贬低现象。个人的勤奋与努力通常被认为是应该得到鼓励和表扬的优良品质或美德,依赖机器则可能被认为是偷懒行为或能力不足的表现。因此,社会公众对使用人工智能的认知评价存在一种“社会评价惩罚”(social evaluation penalty)现象。对大量社会公众的在线调研结果显示,人工智能的使用者和评价者,都不同程度存在对人工智能的使用进行贬低的情况。从用户的角度看,他们相信如果使用人工智能工具,会被其他人认为是“更懒、能力更低”。从评价者的角度看,他们倾向于认为人工智能用户比未使用的其他人员“能力更差、勤奋程度更低、独立性更低、自信心更低”,而且这种评价与其年龄、性别与职业等无关,也就是说这是一种较为普遍的社会现象。不过,这种现象在不同的使用场景中存在差异,与评价者自身应用人工智能的情况亦存在密切联系。在人们倾向于认为人工智能有用的任务中,使用人工智能是懒惰现象的认知评价并不显著。如果评价者经常使用人工智能,则他们不会歧视人工智能的用户。[8]

人们通常认为文学艺术领域的创作需要丰富的情感与较高的创造力,而目前人工智能技术在这些方面尚不能跟人类相媲美,因而存在对人工智能创作产品进行贬低的“标签效应”(labeling effect)。事实上,目前人工智能在文学艺术创作方面已经表现出较高水平。调研表明,非专业人士在判别某些诗歌是由人工智能生成,还是由人类诗人所撰写时,准确率仅为46.6%,低于随机猜测,也就是非专业人士根本无法判别二者的差异。此外,当人们被告知某首诗是由人工智能生成时,他们对其的整体评分会显著下降,相反,当被告知是人类诗人创作时,评分则显著上升。也就是说,人们可能会根据作者身份标签重新调整自己对诗歌质量的判断,存在“标签效应”。[9]与此类似,公众和专业人士对人工智能生成音乐存在一定偏见。当被告知音乐由人工智能创作时,评价往往更低;反之,若故意将其标注为人类创作,则评价更高。[10]

指责与怀疑现象。这种现象在学术界表现得较为普遍,无论是社会公众,还是学校师生,不少人都将使用生成式人工智能与抄袭、作弊等不当行为相提并论。2022年底ChatGPT的发布,引发高等教育界对学术诚信的普遍忧虑。对澳大利亚、新西兰、美国和英国媒体的100篇新闻报道内容进行分析的结果显示,有88篇提及对学术诚信的担忧,如担心学生使用ChatGPT完成作业、代写论文等。媒体报道的内容被“作弊焦虑”与学术诚信担忧所主导,主要倾向于强调人工智能对学术诚信的威胁,而较少提及其可能产生的积极效应。[11]

生成式人工智能确实在全球高校中产生深刻影响。对QS排名前20的大学制定的生成式人工智能政策的研究表明,大多顶尖高校将生成式人工智能的使用,视为对学生作业原创性的威胁,把人工智能的辅助与“外包”或“代写”进行类比,将其与抄袭等学术不端行为直接挂钩。[12]生成式人工智能的普遍使用也影响教师的评分标准。对于某些学科和领域,仅凭教师个人的辨别力,较难区分什么样的作业是学生独立完成的,什么样的是由人工智能生成或修改的。一些教师容易将学生独立完成的作业误判为人工智能生成的,反之亦然。此外,对于水平较高的作业,教师可能会因为怀疑学生的作业是由人工智能撰写或修改的,而降低对学生作业的评分。[13]

在艺术创作领域,有的学者直接将使用生成式人工智能视为剽窃行为。美国康奈尔大学的格茨(Trystan Goetze)认为,利用人工智能生成图像是一种剽窃行为,其本质是对艺术家创作劳动成果的大规模无偿使用,违反知情同意、分配正义和尊重个人尊严的伦理原则,在道德上是不可以接受的。他还提出,如果这种论证成立的话,那么大量人工智能技术都需要海量数据进行训练,由此很多科技公司基于未经授权的数据建构的生成式人工智能也应该被视为剽窃行为。[14]

我们可以从人工智能用户和评价者两个角度来看待人工智能应用的“耻感”。从用户的角度看,他们担心因为使用人工智能工具而被认为是偷懒或能力不强,以及出于对人工智能技术本身不足以被信任的担忧等多种因素,倾向于隐瞒自己使用人工智能的情况。从评价者(当然评价者本身也可能是用户)的角度看,他们倾向于对人工智能生成的内容给予偏向否定性、负面性的判断,对使用人工智能的用户存在一定程度上的轻视现象。而且,从语言表述上看,绝大多数相关文本使用的都是“我们”(we/us)、“许多”(many)、“大多数”(a majority of ),以及复数职业名词等表示集体性的术语,因此这种现象并非个例,而应该被视为一种有一定普遍性的现象。

产生这种现象的原因是多方面的,既有人们对新兴技术本能地排斥与不信任,也有对学术诚信、工作替代等现实问题的忧虑。需要强调的是,对某种新技术进行否定、拒斥或贬低是一种普遍现象,历史上此类案例不胜枚举。比如,柏拉图在《斐德罗篇》中提到,苏格拉底对书写进行贬斥,他说:“如果有人学了这种技艺,就会在他们的灵魂中播下遗忘,因为他们这样一来就会依赖写下来的东西,不再去努力练习记忆,因为他们相信书写,借助外在的符号来回想。”[15]美国科技作家卡尔(Nicholas Carr)在《浅薄:互联网如何毒化了我们的大脑》中指出,互联网使我们逐渐丧失深度阅读和深度思考的能力。他在书中的最后一句话如此写道:“我们越来越依靠计算机作为理解世界的媒介,在这一过程中,我们自己的智能黯然失色,最终沦为人工智能。”[16]

人工智能应用“耻感”的伦理风险剖析

技术是一把双刃剑,我们需要全面客观地认识其正反两方面的影响。人工智能应用中的“耻感”现象主要反映的是人工智能可能产生的负面影响,以及人们对其负面影响的普遍忧虑,由此可能产生的伦理风险主要有以下三个方面。

强化人工智能污名化,导致错误的边界工作。人工智能应用中的“耻感”是对人工智能技术污名化的一种表现形式。一般而言,污名(stigma)表现为五个相互关联的组成部分,即标签化(识别某些差异并进行标记)、刻板印象(将标签与某些负面属性相关联)、隔离(将“我们”与“他们”进行划界)、地位丧失(使被贴标签者社会地位下降)、歧视(包括拒绝雇佣等个体歧视,以及资源分配不公等结构性歧视)。[17]通过前文对人工智能应用的“耻感”现象的论述,我们可以将其归为人工智能污名化的范畴之内。比如,上文的讨论提及将使用人工智能工具视为作弊或欺骗,将使用人工智能与不使用人工智能的用户区分开来,对使用人工智能的用户进行否定性的伦理批判,等等。

污名化的影响是多方面的,其中最重要的影响之一就是导致错误的边界工作(boundary work)。边界工作原初的目标是在科学与非科学之间进行划界。与经典科学哲学的划界研究不同,科学家通过意识形态策略构建科学与非科学之间的界限,从而维护科学的权威性,争取更多的学术资源并保护科学研究的自主性。比如,美国国家科学院通过区分“基础研究”与“技术应用”来保护科学研究的自主性,避免政府的过度干预。边界工作不是固定不变的,而是灵活多样的,其本质是科学家为其职业利益服务的工具。[18]萨卡尔认为,“人工智能羞耻”直接或间接地区分可接受与不可接受、合伦理与不合伦理的人工智能使用方式,也发挥着边界工作的功能。[19]萨卡尔甚至把边界工作看作是一种对抗,一方是拥有技术优势的科技公司,另一方是已经或可能受到指控的人工智能用户。比如,有的学生为了避免被指控使用人工智能作弊,将大部分时间用在调整作业的措辞方面,从而防止被检测系统错误地标记。

“耻感”导致的边界工作潜在地发挥着伦理规范的功能,在公共领域与私人场合均会对个人行为产生明显的引导作用。对此研究颇深的威廉斯(Bernard Williams)认为,虽然羞耻及其动机总是以某种方式包含着一种涉及他者目光的观念,只要存在一个想象中的他者目光,它便能在大多数场合发挥作用。这种内在化的他者不仅是抽象化的,还是普遍化和理想化的,潜在地仍然是某人(somebody)而不是子虚乌有(nobody)。[20]也就是说,羞耻感对个人的行为会产生深刻的影响,它会作为一种导向性的力量,使人们竭力让自己的行为符合某种标准,以避免遭受批评或试图赢得肯定与承认。事实上,大量的实证研究亦证实这一点。一项针对美国黑人高中生的调研表明,人工智能应用中的“耻感”对他们关于人工智能的认知产生深刻影响。一名受访者表示,大家对ChatGPT都不太认可,因为老师们经常说这是一种作弊工具,因此她从来就没有用过这个工具。另一位受访者也表示,虽然她的语言课程鼓励学生使用人工智能来辅助学习外语,但她仍然不愿意使用人工智能,因为她担心被错误地指控为作弊。[21]

加大人工智能监管难度,引发用户心理焦虑。我们并不反对使用人工智能检测技术,但“耻感”可能会推动检测技术的误用与滥用,进而产生一系列负面影响。尽管技术进步速度很快,但人工智能检测工具仍难以应对人类语言的多样性与复杂性,导致错误结果和偏见、歧视现象频频发生。比如,当前主流GPT检测器对非英语母语写作者存在显著偏见。通过使用7款主流检测器,对91篇中国考生托福作文与88篇美国八年级学生作文进行人工智能生成内容检测,结果表明61.3%的托福作文被判定为人工智能生成,而对美国学生作文的误判率接近零。当前的检测器主要依赖文本复杂度(perplexity)判断是否为人工智能生成,即作文可预测性越强,越容易被标记。非英语母语的写作模式由于词汇和语法的多样性较低,从而导致检测系统误判。但是,如果使用ChatGPT进行润色,则会很大程度降低误判比例。[22]据《中国青年报》报道,不少高校教师和学生亲自写的论文被检测系统判定为高“AI率”。还有网友将《滕王阁序》《岳阳楼记》等名篇输入检测系统,发现“AI率”超过50%,由此引发公众对相关检测工具准确性和透明度的普遍质疑。[23]

国内外高校关于人工智能应用的管理规定有利于规范人工智能的使用,但过度严格的要求也可能助长学生的担忧与焦虑情绪。对相关研究文献的综合性分析表明,高校中的学生关于人工智能的焦虑情绪普遍存在,且在一定范围内呈现上升趋势。人工智能焦虑现象会降低学生的学习动机和技术使用意愿,进而阻碍人工智能技能的学习效果。[24]当然,高校学生中的人工智能焦虑情况是由多方面因素引起的,“耻感”确实是其中之一。有学生由于惧怕使用人工智能所带来的惩罚,在写作业时关闭所有人工智能工具。还有学生作业因在检测平台被检测出高“AI率”,而受到学业延期的处罚。同时,人工智能检测可能导致人们刻意改变写作风格,使作者对论文写作风格产生一定的焦虑情绪。比如,对生物医学文献中词汇使用情况的统计表明,大模型生成的内容存在同质化等特点,特别是大模型偏好某些风格的词语,如动词“delves”、形容词“crucial”。2024年,“Delves”的使用率增长了28倍,虽然使用该词的文章的绝对数量较少,但增长倍数显著;“Crucial”增长了1.37倍,虽然相对倍数不高,但由于该词使用频率高,因此绝对增幅较为显著。[25]因而,为了避免自己的论文被误判为是大模型所写,很多学者刻意在论文写作中回避使用这些词语。

产生感知性伤害,影响人工智能技术信任与接受。“耻感”现象最直接的伦理风险之一是导致感知性伤害(perceptual harms),即当他人感觉或怀疑用户使用人工智能时,对用户所产生的伤害。也就是说,无论实际上是否使用了人工智能,只要有人怀疑你用了,就可能产生某些不公平对待。人工智能引发的伤害现象通常是在使用过程中或由人工智能输出结果所导致的,但感知性伤害主要源于社会刻板认知因素。对近千名美国成年人的在线调研表明,男性(42.2%)比女性(35.3%)更容易被怀疑使用人工智能,这可能是由于社会公众通常认为男性比女性更懂技术;东亚裔(42.0%)比美国人(35.1%)被怀疑率更高,可能因为东亚裔被视作是技术型群体,同时英语不是其母语。[26]

包括感知性伤害在内的各种因素影响公众对人工智能的信任与接受。虽然人工智能发展突飞猛进,但社会公众的认知与技术发展之间并不协调,甚至不少国家公众对人工智能技术并不信任。对17个国家17000多名受访者的调查表明,有39%的公众表示愿意信任人工智能,只有33%的公众乐于接受(high acceptance)人工智能,同时相较于西方国家,新兴经济体(如巴西、印度、中国等)更加信任人工智能,接受度也更高。[27]人工智能技术接受理论研究表明,公众的积极认知态度,特别是公众对人工智能的信任,是影响公众对人工智能接受度的重要因素。主流媒体关于人工智能的报道,既是公众社会技术想象(sociotechnical imaginaries)的外在表征,也会对公众产生一定的影响。一定程度上,人工智能应用中的“耻感”是导致社会公众对人工智能的信任度和接受度不高的关键性因素之一。这使一些社会公众对人工智能产生排斥态度和否定性认知,自然不会选择信任人工智能。

文化循环视角下的伦理治理策略

人们对人工智能的合理接受与应用不仅是技术问题,更主要的是社会文化变革的问题。在人工智能时代,我们需要建构一种与人工智能技术适配的智能文化。从智能文化的角度进行伦理风险防范,具有更高的可行性与更强的针对性。[28]文化循环(culture cycle)理论可为我们理解文化冲突,促进积极的文化变革提供一个富有参考意义的理论视角。文化循环理论将文化视为一个多层次、相互作用的动态系统,包括观念(ideas)、制度(institutions)、互动(interactions)、个体(individuals)四个层面,这四个层面相互依赖、相互影响。也就是说,社会文化形塑或引导人们的行为,而人们的行为又会强化与反映,或者质疑与改变社会文化。[29]文化循环理论认为,要促进文化变革,需要对文化循环的每个层面进行干预,同时不同层面之间需要保持某种程度的一致性与协同性。因此,针对人工智能应用中的“耻感”现象的伦理治理需要从以下四个层面展开。

观念层面:重视媒体在观念传播中的关键作用,积极消除人工智能的污名化。在消除人工智能污名化的过程中,媒体的作用至关重要。在传播技术伦理的过程中,媒体可以发挥多重角色的功能,包括“启蒙者”的“乘数效应”作用、“斡旋者”在“游说”与“辩论”中的中介作用,以及“协调者”的“平衡器”作用,这不但可以引导公众全面客观地认识人工智能,还可以使公众的意见受到关注并影响技术政策。[30]另外,当前媒体围绕人工智能技术传播所建构的形象是多方面的,其中最显著的倾向是将人工智能拟人化。如果用户只是把人工智能视为一种类似于个人电脑之类的工具,“耻感”现象的影响程度可能会在相当程度上被弱化。也就是说,在“耻感”的深层预设中,普遍存在将人工智能拟人化的思想倾向。因此,在媒体宣传中,需要有意识地弱化对人工智能的拟人论倾向。拟人论指将人类的精神、情感、动机和行为等特性赋予非人对象的思想观念。在目前的机器人文化中,存在大量的机器人拟人论意识形态,带有比较明显的未来主义色彩和对未知技术的恐惧特征。拟人论固然有其优势,如可以使人工智能伦理获得更多的关注,但可能导致其偏于激进并脱离现实,进而引发伦理判断的混乱与道德界限的模糊。[31]大量心理学研究表明,当计算机或人工智能系统被设计得接近于人类时,用户就会倾向于以符合社会规范的方式与之进行互动,也就是存在一定拟人化特点,这会使用户忽略人机差异。因此,在媒体宣传中自觉弱化人工智能的拟人化特征,可以更好地帮助用户利用人工智能的优势,减少人工智能应用中的“耻感”现象。

高等院校在文化创造与传播中发挥着重要作用,因此高校是当前人工智能应用“耻感”伦理治理的重要场域。近年来,高等教育领域围绕人工智能的影响及其应对策略发表了大量的研究论著,充分体现出学界对人工智能的高度重视。尽管人工智能应用的“耻感”现象在教育领域较为普遍,但教育管理者与教师群体的思想观念整体上还是颇为开放与包容的,因此我们有理由对弱化学术领域的“耻感”现象持乐观态度。比如,2023年,欧洲学术诚信网络(The European Network for Academic Integrity)发布了在教育领域中合伦理地应用人工智能的建议,指出适当地使用人工智能资源与工具,只是影响形式而不是内容,通常是可以接受的。[32]当然,我们也需要区分对人工智能的污名化与合理的批判质疑。合理的批判至少需要有明确的对象、确凿的事实与充分的依据,而且应当就事论事,不夸大、不盲从。

制度层面:变革学术管理理念与模式,鼓励负责任地使用人工智能。与其让某些媒体或社会群体通过非正式的边界工作来营造人工智能应用的“耻感”,从而在一定程度上阻碍人们合理使用人工智能,或者制定政策简单予以禁止,不如引导人们规范使用人工智能工具。ChatGPT刚发布之后不久,确实有一些高校明确禁止使用生成式人工智能工具,但后来基本上都取消了相关的禁令,改为通过相应规则来规范师生使用。我们通过对国外著名高校的生成式人工智能伦理制度的统计研究发现,大多数高校制定了较为完善的规范性制度。[33]

从人工智能学术共同体的角度看,专业团体大都明确允许使用人工智能,同时也提出相应的约束条件,鼓励负责任地使用人工智能工具。美国计算机学会(Association for Computing Machinery, ACM)在其官网上公开同意作者使用人工智能工具,但要求人工智能不能抄袭、歪曲或伪造学术研究成果,而且人工智能生成的成果要能够总体上比较准确地反映作者的基础性工作和原创性贡献,同时作者应对人工智能生成内容的真实性和正确性负责。

众所周知,透明性原则是人工智能伦理中的一个核心原则。不过,通常的透明性原则是从技术角度,对研发人员提出的,而不是针对用户而言的。有学者建议,为避免秘密使用人工智能的情况,应当将透明性原则拓展到用户群体,要求用户主动披露人工智能使用情况。但是,用户主动披露显然会加大暴露用户个人弱点与隐私的风险,从而可能进一步强化“耻感”及其影响。同时,也有学者建议加强过程性管理,通过人工智能使用日志等工具,展现用户的使用情况。但是,这种管理模式或将使用户产生被监控的不适感,导致自主性削减。笔者研究认为,欧洲学术诚信网络与美国计算机学会倡导的负责任使用人工智能的模式更为可取。对教育管理机构而言,应当完善传统的学术管理与评价模式,使其转变为一种更为开放、灵活、包容的模式,根据不同的学科、任务与工作场景,制定灵活的规章制度,明确规定学生与科研人员在何时以及如何使用各类人工智能工具,明确授权相关人员合理使用人工智能,不断适应快速变化的人工智能治理场景。[34]

互动层面:为人-机协同方式提出更多的可行框架。当前世界各国的人工智能政策主要聚焦如何促进人工智能科技的健康发展与应用,以及如何防范各类风险这两个方面。对于个体应该如何与人工智能互动,如何更好地适应人工智能带来的各种变化的重视程度,则应进一步增强。有学者认为,传统的人工智能设计是以算法或人工智能系统本身为中心,我们应该倡导一种以人为本的人工智能(Human-Centered AI)设计思路,也就是将人类视为设计的核心。施奈德曼(Ben Shneiderman)将这种思路的重要意义与哥白尼革命相提并论,称其为“第二次哥白尼革命”,认为这种思路可以实现对人工智能的全新认知。[35]不过,随着生成式人工智能的快速发展与广泛应用,越来越多的学者强调人机互补与人机协作,因此人工智能系统设计不仅要以人为本,还应将人机交互置于核心地位。为更好地实现人机协同,仅在实验室内进行有限的研究是远远不够的,需要在真实的应用场景中获取数据,以保证人工智能系统的准确性与可靠性。同时,还应更全面收集用户体验与反馈信息,调整系统设计方案以促进更和谐高效的人机互动。

在学术研究中,为了更好地引导用户使用生成式人工智能,我们需要转变视角,从关注具有一定时效性的“人工智能能做什么与不能做什么”,转向关注“我们允许它做什么”,而是否允许的依据之一就是学术研究中的学术质量标准。为了平衡人工智能系统的实用性与学术严谨性,可以将学术质量标准落实到学术研究的每一个具体步骤之中,详细分析每一步使用人工智能的具体建议,由此可以在很大程度上保证负责任地使用人工智能。[36]需要强调的是,人类应用人工智能的成就感,取决于人类是否认为自己仍然是创作的主人。未来人机协同是大势所趋,但不论人工智能多么强大,人类仍然需要把握主动权与控制权。

个体层面:直面人工智能引发的创造性破坏,在应用中提升人工智能素养。人工智能对人类社会的深刻影响,在一定程度上可以看作是一种“创造性破坏”(Creative Destruction)。创造性破坏是源于尼采(Friedrich Nietzsche)哲学,并在熊彼特(Joseph Schumpeter)的理论中得到进一步发展的概念。创造性破坏包括的核心原则有,创造与破坏不可分割,新的创造必须建立在旧事物的破坏之上;创造与破坏的对立面是停滞,而停滞会导致衰退;生命必须不断战胜自我,才能实现进化和进步,等等。[37]从创造性破坏概念的角度看,“耻感”的克服与智能文化的建构对某些群体或个体而言,可能是一个艰难甚至痛苦的过程。

就用户个体层面而言,为了应对人工智能引发的创造性破坏,国内外学术界已就个体人工智能素养发表了颇为丰富的研究成果。狭义的人工智能素养通常指获得、使用和评估人工智能的能力,而广义的人工智能素养则包含在人工智能环境中用到的相关知识、技能以及伦理等要素的总和,涵盖多个维度。[38]从本文的讨论来看,我们应该重视广义人工智能素养的培养,从人工智能意识、知识、能力与伦理等多个维度完善人工智能素养的核心要素,使个体更好地适应智能文化的需求。需要强调的是,我们应当重视在现实人工智能应用场景中提升用户的人工智能素养。大量的实证研究表明,公众的态度具有较强的可塑性,当他们在尝试使用人工智能工具并获得良好的体验后,会发现人工智能可以成为学习与工作的好助手,而不是用来偷懒或作弊的工具,从而逐渐改变对人工智能的认知。

结语

作为一种颠覆性技术,人工智能与历史上其他颠覆性技术一样,社会公众对其的理性认知与接纳可能需要经历较长的过程,而且不同群体与个体之间存在较为显著的差异。人工智能应用中的“耻感”只是智能社会中纷繁复杂的现象之一。本文的目的不是要批判这种现象,事实上“耻感”现象有其积极价值,本文的目的是客观描述这种现象,剖析其潜在的伦理风险,并尝试提出相应的伦理治理策略。由此,既可以在一定程度上减弱甚至消除用户使用人工智能的心理负担与压力,也有利于营造一种更为积极合理的智能文化。我们相信,人工智能应用“耻感”会随着技术的日益成熟和更广泛地使用,以及伦理治理与社会规制的日益完善而逐渐弱化。如果以后我们对待使用人工智能的态度,类似于当前我们对待使用手机和电脑的态度,这种现象就会彻底消解,其伦理风险自然也就烟消云散了。

(本文系国家社会科学基金重大项目“人工智能伦理风险防范研究”的阶段性成果,项目编号:20&ZD041)

注释

[1]《习近平向2025世界智能产业博览会致贺信》,《人民日报》,2025年9月6日,第1版。

[2][19]A. Sarkar, "AI Could Have Written This: Birth of a Classist Slur in Knowledge Work," CHI EA '25: Proceedings of the Extended Abstracts of the CHI Conference on Human Factors in Computing Systems, 621, 2025.

[3]L. Giray, "AI Shaming: The Silent Stigma Among Academic Writers and Researchers," Annals of Biomedical Engineering, 2024, 52.

[4]D. Seetharaman; M. Barnum, "There's a Tool to Catch Students Cheating With ChatGPT," 4 August 2024, The Wall Street Journal.

[5]Microsoft and Linkedln, "AI at Work Is Here. Now Comes the Hard Part," 2024 Work Trend Index Annual Report, 8 May 2024, https://www.microsoft.com/en-us/worklab/work-trend-index/ai-at-work-is-here-now-comes-the-hard-part?ocid=AIDN%2FA_TWITTER_oo_spl100005738933705.

[6]F. Draxler; A. Werner; F. Lehmann et al., "The AI Ghostwriter Effect: When Users Do Not Perceive Ownership of AI-Generated Text But Self-Declare as Authors," ACM Transactions on Computer-Human Interaction, 2024, 31(2).

[7]Z. Zhang; C. Shen; B. Yao et al., "Secret Use of Large Language Model (LLM)," Proceedings of the ACM on Human-Computer Interaction, 2025, 9(2).

[8]J. Reif, "Evidence of a Social Evaluation Penalty for Using AI," Proceedings of the National Academy of Sciences, 2025, 122(19).

[9]B. Porter; E. Machery, "AI-Generated Poetry Is Indistinguishable from Human-Written Poetry and Is Rated More Favorably," Scientific Reports, 2024, 14 (1).

[10]A. Micalizzi, "Artificial Creativity. Perceptions and Prejudices on AI Music Production," Proceeding of Ninth International Congress on Information and Communication Technology, Singapore: Springer, 2024, pp. 481-491.

[11]M. Sullivan; A. Kelly; P. McLaughlan, "ChatGPT in Higher Education: Considerations for Academic Integrity and Student Learning," Journal of Applied Learning & Teaching, 2023, 6(1).

[12]J. Luo, "A Critical Review of GenAI Policies in Higher Education Assessment," Assessment & Evaluation in Higher Education, 2024, 49(5).

[13]A. Kofinas; C. Tsay; D. Pike, "The Impact of Generative AI on Academic Integrity of Authentic Assessments within A Higher Education Context," British Journal of Educational Technology, 31 March 2025, https://bera-journals.onlinelibrary.wiley.com/doi/10.1111/bjet.13585.

[14]T. Goetze, "AI Art Is Theft: Labour, Extraction, and Exploitation," Proceedings of the 2024 ACM Conference on Fairness, Accountability, and Transparency, 2024.

[15]《柏拉图全集(第5卷)》,王晓朝译,北京:人民出版社,2016年,第137页。

[16]卡尔:《浅薄:互联网如何毒化了我们的大脑》,刘纯毅译,北京:中信出版社,2010年,第242页。

[17]B. Link; J. Phelan, "Conceptualizing Stigma," Annual Review of Sociology, 2001, 27.

[18]T. Gieryn, "Boundary-Work and the Demarcation of Science from Non-Science: Strains and Interests in Professional Ideologies of Scientists," American Sociological Review, 1983, 48(6).

[20]威廉斯:《羞耻与必然性》,吴天岳译,北京大学出版社,2014年,第90~94页。

[21]T. Tanksley, "We're Changing the System with This One: Black Students Using Critical Race Algorithmic Literacies to Subvert and Survive AI-Mediated Racism in School," English Teaching: Practice and Critique, 2024, 23(1).

[22]W. Liang; M. Yuksekgonul; Y. Mao et al., "GPT Detectors Are Biased Against Non-Native English Writers," Patterns, 2023, 4(7).

[23]邹竣麒、刘胤:《论文AI率检测如何避免“误伤”》,《中国青年报》,2025年5月17日,第1版。

[24]X. Wu; H. Li, "A Systematic Review of AI Anxiety in Education," AI and Ethics, 23 July 2025, https://link.springer.com/article/10.1007/s43681-025-00783-9.

[25]D. Kobak; R. Gonz'alez-M'arquez; E. Horvát et al., "Delving into LLM-assisted Writing in Biomedical Publications Through Excess Vocabulary," Science Advances, 2025, 11(27).

[26]K. Kadoma; D. Metaxa and M. Naaman, "Generative AI and Perceptual Harms: Who's Suspected of Using LLMs?" Proceedings of the 2025 CHI Conference on Human Factors in Computing Systems, 2025, pp. 1-17.

[27]N. Gillespie; S. Lockey; C. Curtis et al., Trust Artificial Intelligence: A Global Study, Brisbane: The University of Queensland, 2023, https://www.aiunplugged.io/wp-content/uploads/2023/10/Trust-in-Artificial-Intelligence.pdf.

[28]杜严勇:《智能社会建构中的算法文化:本质特征、伦理风险及其规避路径》,《同济大学学报(社科版)》,2023年第1期。

[29]M. Hamedani; H. Markus, "Understanding Culture Clashes and Catalyzing Change: A Culture Cycle Approach," Frontiers in Psychology, 2019, 10.

[30]朱雪熙、王国豫:《德国媒体在技术伦理传播中的作用:以人工智能伦理传播为例》,《科学与社会》,2022年第4期。

[31]刘永谋、白英慧:《机器人伦理学的拟人论基础》,《中国社会科学院大学学报》,2025年第6期。

[32]T. Foltynek; S. Bjelobaba; I. Glendinning et al., "ENAI Recommendations on the Ethical Use of Artificial Intelligence in Education," International Journal for Educational Integrity, 2023, 19(1).

[33]吕宇静、杜严勇:《国外著名高校生成式人工智能伦理政策研究》,《中国矿业大学学报(社科版)》,2025年第4期。

[34]王伯鲁、史少春:《人工智能价值对齐困难及其实现路径探析》,《国家治理》,2025年第3期。

[35]B. Shneiderman, "Human-Centered Artificial Intelligence: Three Fresh Ideas," AIS Transactions on Human-Computer Interaction, 2020, 12(3).

[36]F. Tingelhoff; M. Brugger; J. Leimeister, "A Guide for Structured Literature Reviews in Business Research: The State-of-the-art and How to Integrate Generative AI," Journal of Information Technology, 2025, 40(1).

[37]H. Reinert; E. Reinert, "Creative Destruction in Economics: Nietzsche, Sombart, Schumpeter," J. Backhaus; W. Drechsler (eds.), Friedrich Nietzsche (1844-1900): Economy and Society, Berlin: Springer, 2006, pp. 55-85.

[38]赵益民、彭雪琴、寸国美:《人工智能素养的内涵、结构和评价体系》,《图书情报工作》,2025年第13期。

责 编∕方进一 美 编∕梁丽琛

Analysis of "Sense of Shame" Phenomenon in Artificial Intelligence Applications and Ethical Risks

Du Yanyong

Abstract: Currently, artificial intelligence technology is rapidly developing and widely applied. While most people positively evaluate artificial intelligence, a concerning social phenomenon has emerged: some individuals tend to conceal, reject, or belittle AI applications, while also making negative judgments about AI users, creating a sense of shame around AI adoption. This may reinforce the stigmatization of AI, trigger psychological anxiety among users, and potentially undermine public trust and acceptance of AI technology in the long term. To address this, ethical governance can be implemented across four dimensions: conceptual, institutional, interactive, and individual. At the conceptual level, the critical role of media in disseminating ideas should be emphasized; at the institutional level, academic management concepts and models should be reformed to encourage the responsible use of AI; at the interaction level, more feasible frameworks for human-machine collaboration should be proposed; at the individual level, we must confront the creative destruction triggered by AI, enhance AI literacy through application, and thereby foster a more positive and rational intelligent culture.

Keywords: artificial intelligence, "sense of shame" phenomenon, ethical governance, intelligent culture

[责任编辑:方进一]