【摘要】生成式人工智能的出现,对传统人工智能的计算智能和感知智能形成挑战,初步形成认知智能这一新型智能形态。认知智能在人工智能领域的发展突出对自然语言的理解能力,带来语境化人工智能、伦理人工智能以及可解释人工智能等更人性、更智能的文化人工智能。这些不同形态的文化人工智能是认知智能要拓展的具体形态,也是提升大语言模型认知能力的具体路径。
【关键词】认知智能 计算智能 感知智能 生成式人工智能 文化人工智能
【中图分类号】 TP18 【文献标识码】A
【DOI】10.16619/j.cnki.rmltxsqy.2025.11.008
【作者简介】魏屹东,山西大学哲学学院教授、博导。研究方向为科学史与科学哲学、认知哲学和人工智能哲学。主要著作有《科学表征:从结构解析到语境建构》《科学认知:从心性感知到适应性表征》《认知哲学手册》《认知科学哲学问题研究》等。
在人工智能(AI)领域,认知智能被视为继传统人工智能的计算智能和感知智能之后的一种新型智能形态。认知智能是认知心理学与人工智能的有机结合,其在理解能力这一认知属性上显著超越前两种智能,是实现“具身”或“通用”人工智能的必然趋势。实际上,“认知智能”一词源自心理学领域,是与“情感智能”相对的概念。因此,“认知智能”常被称为“智商”,“情感智能”则被称为“情商”。鉴于人工智能借用了心理学的概念,那么“认知”性能在人工智能中应有所体现,即赋予人工智能系统“人性化”“心性化”或“文化化”的特征。这正是笔者倡导的“文化人工智能”(Artificial Cultural Intelligence,ACI)[1]的内涵,即通过将人类特有的文化属性(包括社会性、交互性、伦理性)嵌入人工智能系统,从而创造出“文化智能体”或“文化机器人”。基于此,本文首先对“智能”的含义及其认知属性进行梳理和分析,进而探讨认知智能在语言理解和决策能力方面的表现,并围绕语言发展探讨文化人工智能的不同形态,包括语境化人工智能、伦理人工智能以及可解释人工智能,旨在为新一代人工智能(具身人工智能或通用人工智能)的发展提供理论洞见与实践思路。
认知智能对计算智能和感知智能的超越
心理学和人工智能领域对“智能”的定义和理解存在显著差异。20世纪中期,斯滕伯格(R. J. Sternberg)提出智力三元理论,将智能定义为适应、塑造和选择环境以实现个人和社会文化目标的能力,[2]并进一步将智能划分为分析性智能、创造性智能和实践性智能。[3]分析性智能主要体现在学术问题的解决和计算能力上,具体表现为分析、评估、判断、比较以及解决问题的能力;创造性智能则表现为设计或想象问题和情境解决方案的能力,包括为意想不到的问题找到新颖的解决方案、创作精美的艺术作品或文学作品;实践性智能则涉及主体行动的能力,通常被用于在日常生活中寻找行之有效的解决方案。斯腾伯格的理论强调智能的社会文化背景及其对个体行为的影响,因此其定义主要针对“人类智能”,而非“人工智能”。
霍金斯(J. Hawkins)在其经典著作《千脑:智能新论》中提出“智能”的四个属性[4]:一是学习多重模型,即智能体(agent)能够对世界的各个方面单独建模,或者说,一个模型能够描述如何预测和捕捉球,另一个模型则描述如何投掷;二是通过运动和感觉来学习,即智能体通过运动传感器了解被建模的事物;三是使用通用参照系,即海马神经回路(网格细胞、位置细胞等)在进化过程中为空间导航提供服务,现在可能支持所有类型的学习,而大部分知识的存储和推理都是通过类地图的通用结构进行;四是持续学习,即智能体能够在不覆盖已有知识的情况下学习新知识。霍金斯认为,这四个属性是创造真正智能机器的关键,而目前的学习算法缺乏这些属性。然而,霍金斯的理论更多地描述了智能模型的特性,而非智能的本质。[5]
阿格沃尔(U. A. Agarwal)等人将智能理解为主体根据所处环境调整自己行为的能力。[6]这种适应能力是人们了解个体差异的关键因素。心理测量表明智能是一系列能力的集合,并将其表述为对认知能力的单一测量。如信息处理能力描述了人们智能思考和解决问题的过程,这种方法侧重于研究智能行为的认知功能,而解决问题的认知能力是创造性的关键。解决问题指的是成功处理复杂和意外情况并找到解决方案的能力,这有助于确定问题发生的原因以及如何解决。这一点恰恰是人工智能缺乏的,这就是“认知智能”——自然进化形成的认知能力。
在心理学中,智能通常被分为认知智能与情感智能。[7]认知智能(Cognitive Intelligence)是指通过感觉和思维过程获取知识和理解的智能,主要体现在工程、数学和科学研究领域,因为快速准确地处理信息的能力至关重要。如软件工程师利用认知智能编写高效代码、开发复杂的软件解决方案。情感智能(Emotional Intelligence)则包括自我觉知(意识)、自我管理、社会意识和关系管理四个方面。[8]认识和解释自己情绪的能力与技巧被称为“情绪素养”,包括监测、理解和调节自己情绪与行为以应对社会环境和情境的能力。这是一种主体主动调节和自我修正的能力,即适应性表征能力。然而,如何让人工智能拥有情感智能是一个棘手的问题。从适应性表征视角看,情感智能是一种具有适应性的心理调节能力,人工智能研究者若能够将这种适应性嵌入物理装置或机器人中,制造出具有情感的机器人并非不可能。
认知智能是衡量智能实体(人类或机器)解决复杂问题和理解抽象概念能力的关键指标,侧重于认知过程和逻辑推理,其决策能力是衡量智能实体是否有智能的关键。就因果关系而言,在因果关系明确的简单情境中,决策过程相对直接;然而,在因果关系不明确的复杂和混沌情境中,决策变得极具挑战性。情感智能则关注情感意识、情绪管理和社交技能。与之相比,传统人工智能主要侧重于计算智能(Computational Intelligence)和感知智能(Perceptual Intelligence)的研究,而新一代人工智能则致力于认知智能(智商)和情感智能(情商)嵌入机器,即具身人工智能(Embodied AI)或通用人工智能(General AI)的研究。
在人工智能领域,不同的研究范式对智能的理解存在显著差异。计算主义(Computationalism)的智能特指计算能力或计算智能,即基于计算机的符号操作和推理能力,主张“计算即智能”。动力主义(Dynamicism)的智能是指感知能力或感知智能,强调使计算机执行视觉、听觉和触觉等感知任务,如语音识别、语音合成和计算机视觉,主张“感知即智能”。具身人工智能是指学习和理解能力,即认知智能,要求机器能够更好地理解和分析概念、关系和逻辑。其中,基于语境进行语言理解是认知智能的核心,[9]主张认知和理解才是智能。
从发展历程看,认知智能是继计算智能和感知智能后的一种新型“具身智能”,其内在能动性超越了前两者。认知智能有何独特之处?为什么超越了计算智能和感知智能?从认知心理学来看,与计算智能和感知智能相比,认知智能是一种包含了各种心理过程[10]的高级智能,即认知能力。美国心理学学会的心理学词典将认知定义为“人们学习、记忆、推理、解决问题以及作出明确判断的能力,特别是与情感智能比较而言”。因此,认知智能有时也指“智商”(相对于“情商”),简称为“认知”,包括获得知识和通过心智的理解、生命体验和感觉。[11]在这个意义上,认知智能就是人类的理性思维和判断能力,以及在语境中学习和处理信息的能力,包括集中注意力、回忆和储存记忆、学习和获得语言及其他信息、感知环境中的刺激、处理数据、回应各种问题、决策和解决问题等。斯滕伯格的智力三元理论将认知智能定义为“言语、数字和空间能力的结合,这种结合能力包括视觉化、运用记忆、词语流畅性、言语关系、感知速度、归纳和演绎”。[12]由此可见,认知智能的超越性体现在其对环境的主动理解和适应能力。
认知智能与一般心理能力不同,后者是衡量个人认知能力整体水平和工作表现的重要指标,主要包括流动智能和结晶智能两方面。流动智能是指个人在遇到问题时能够使抽象信息变得有意义并找到解决路径的能力;结晶智能则是指基于经验和先验信息所掌握的知识与理解,包括知识的归因和保留。流动智能是主体解决问题和逻辑推理的能力,是与多种认知能力相关的最重要特征之一,[13]实际上是主体的思维能力;结晶智能则是个体对特定文化中语言、信息和概念的掌握程度,是一种记忆保持能力,通常会随着年龄增长而持续提升,直到老年阶段才开始下降。[14]
认知智能是可测量的,可通过标准化测试对各种认知能力进行量化评估。韦氏成人智力测验量表(WAIS)和斯坦福-比奈智力测量表是目前使用最为广泛的智商评估工具,用于评估语言理解、感知推理、工作记忆和处理速度等一系列认知技能。情感智能评估则侧重于评价情感和社交能力,主要工具包括情商量表(EQ-i)和梅耶尔-萨洛维-卡鲁索情商测试(MSCEIT)。EQ-i主要测量情绪和社会功能,如自我认知、压力管理和人际交往技能,而MSCEIT则评估个体感知、理解和管理情绪的能力。人工智能作为辅助工具,可以应用于认知智能和情感智能的测试。如人工智能作为认知科学的理论工具,[15]可以支持理论构建和智能评估。ChatGPT和DeepSeek等大模型已广泛应用于科研、医疗和教育等领域。在这种背景下,人类认知被视为一种假设性的计算形式。在此假设下,人工智能作为计算工具——包括框架、概念、形式、模型、证明、模拟等——可以为认知科学的理论研究提供支持,即将人工智能作为智能工具应用于科研、生产和日常生活。然而,让人工智能和智能机器人同时具备认知智能和情感智能难度极高,我们将其称为“人工智能认知难题”,即如何制造出“人类水平的”或“超人的”智能体。因此,使用人工智能作为智能工具与让人工智能真正拥有认知智能和情感智能是完全不同的两件事。
对机器来说,认知测量在智能制造的发展中引入了更加自主的系统,这些系统需要利用机器状态、传感器数据和领域知识等多模态数据来进行复杂的决策制定过程。[16]这不仅是认知信息学(cognitive informatics)[17]集中研究的“智能机器工具”[18]问题,也是新兴的“认知物理学”的研究目标,即研发可交互、会学习、自成长的认知机器。[19]认知测量作为一种认知计算方法,将人的心智视为信息加工系统,通过模拟人的思维和智能,建立自动化、计算机化的心智模型,并测试机器的推理能力,使其行为与人类相似。如认知计算作为医疗保健领域一项不断发展的技术,能够优化临床认知过程。[20]分布式“认知无线电网络”[21]是人工智能领域“认知测量”的例子,它包括频谱感知路由、基于机器学习的方法、博弈论启发的策略和生物启发过程,智能路由在动态情况下可提供更好的弹性、适应性和频谱效率。[22]认知测量表明,认知智能可以通过计算在机器中实现,如对自然语言的计算理解和文化理解。
认知智能对人工智能自然语言理解力的提升
认知智能的核心在于处理和理解自然语言。从语言这个文化核心看,认知智能是智能科学的高级阶段,旨在对人类的自然语言、知识表达、逻辑推理和自主学习等能力进行深入的机理研究与计算机模拟,从而使机器具备类似人类的智能,甚至掌握人类专家在各领域的知识积累和应用能力。[23]显然,这些方面均与自然语言相关,如大语言模型(LLM)就是用来处理自然语言。自然语言作为人类表达和交流思想的基本工具,在人工智能中对应的是自然语言处理(NLP),即利用计算机处理人类语言。自然语言处理作为人工智能领域的核心,具有多义性、语境相关性、模糊性、非系统性、环境相关性以及知识面广的特点,也是人工智能中最具挑战性的领域之一。一般来说,自然语言处理主要包括认知、理解和生成三个部分。其中,认知和理解是指让计算机将输入的语言转化为具有特定含义的符号和关系,并根据用户的需要进行相应处理。因此,人工智能的自然语言生成系统本质上是将计算机数据转化为自然语言的系统。
如果计算机能够理解和处理自然语言,那么人与计算机或机器人之间就可以使用母语进行信息交流,这标志着人工智能技术的重大突破。如各种生成式人工智能大语言模型的出现。自然语言作为高级智能的体现,是揭示人类智能奥秘的关键,有助于我们深入理解语言能力和思维本质。在人工智能的发展历程中,自然语言处理经历了三个主要阶段[24]:一是符号人工智能阶段,即基于规则阶段(20世纪60至80年代)。在这一时期,乔姆斯基将自然语言和程序语言置于同一高度,通过统一的数学方法进行解释和定义,构建了自然语言理解系统,试图将语法、推理、语境三者结合起来。二是统计人工智能阶段,即基于统计和语料库阶段(20世纪90年代以来)。在语料库语言学中,统计处理技术是从语料库中获取各种知识的主要手段,其基本思想是将语料库作为知识的唯一信息源,通过统计方法获取知识,并在统计学习的意义上解释知识。三是生成式人工智能阶段,即深度学习阶段(2008年以来)。在这一阶段,自然语言处理的研究开始转向深度学习,包括神经词袋模型(把文本序列中每个词的嵌入平均化作为整个序列的表征)、循环神经网络(对无限长的句子进行编码)、卷积神经网络(通过多个卷积层和子采样层得到一个定长向量)以及编码-解码技术(实现从一个句子到另一个句子的转换)。
自然语言处理的演变表明,人工智能本质上是“类脑智能”。经过几十年的发展,人工智能在深度学习、大数据和计算能力的共同推动下获得了重生。根据解决问题的不同阶段,人工智能大致可分为感知智能、认知智能和决策智能三个阶段。[25]感知智能以语音识别、图像理解、字符识别为主要任务,表现为“能听、能说、能看、能认”,在专项任务上已接近或超过人类水平。如在数万甚至数十万小时的标注语音数据基础上,深度学习在语音识别方面可达到甚至超过人类的听写水平。认知智能则以推理、决策、学习为主要任务,表现为“能理解、会思考、有认知”。如智能机器人对天气状况的预报不仅需要了解当前天气情况,还需要掌握导致航班延误的常识以及航空公司或机场的特定起飞标准。这表明语言理解的背后是常识和推理,而文字只是认知空间的形式表达。然而,认知智能的研究仍处于起步阶段,机器认知能力相对较低,这种低认知水平的人工智能难以作出令人满意的决策。因此,提升人工智能的“自主性”和“能动性”至关重要,以便更好地应对复杂情况,这也是决策智能进一步发展的关键,涉及人机信任、交互智能、人与智能系统的合作研究。决策智能也是认知智能的一部分,因为决策应基于理性智能,而非情感。
近年来,基于认知智能的人机协同决策逐渐成为研究热点。如人机协同系统实现、人机智能集成机制和协同决策过程中的人机交互研究,揭示了智能机器正朝着人机融合智能的方向演进。[26]这一机器思维过程离不开认知计算的支持。机器思维是指机器模拟人类认知过程的能力,包括感知、推理、决策和解决问题的能力。过去20多年间,人工智能经历了一场惊人的革命,其概念已从传统的规则驱动转变为数据挖掘,即智能应用的主要来源变成了数据。因此所提供的数据质量在很大程度上决定了人工智能模型的成败。[27]从自然智能(人类和动物智能)到人工智能的发展历程清楚地表明,人工智能技术有助于满足机器思维在认知和类人推理方面的需求。如以模型为中心的人工智能和以数据为中心的人工智能。然而,问题在于哪种模型更适合机器?如何缩小机器智能与人类智能之间的差距?是否可以利用增强智能这种人类与机器之间的共生关系来增强认知能力、促进创新和解决问题?
我们知道,机器学习、深度学习和大语言模型算法是现代人工智能的关键组成部分。机器学习侧重于模式检测和预测建模,能够集中学习大型数据,实现流程自动化并解决问题。深度学习作为机器学习的一个子集,已成为涉及大量数据(包括图像、文本和序列数据)任务中的主导技术。其中,深度神经网络是深度学习模型背后的“大脑”,推动了计算机视觉、自然语言处理和语音识别领域的进步。这些模型具有分层特征学习结构,能够理解数据中的复杂关系和模式。大语言模型算法作为深度学习的一个子集,改变人们理解和生成自然语言的方式。凭借庞大的规模和预训练的理解能力,这些模型能够以前所未有的水平理解、生成和处理人类语言,广泛应用于内容创建、翻译、问答等领域,改变人们与人工智能系统的交互方式。如心智编程和认知思维建模使这些系统能够模拟和理解人类认知。由机器学习和自然语言处理等先进技术驱动的认知分析,可提供预测能力和个性化体验,推动人工智能认知系统朝着个性化、自适应学习甚至情感智能和道德智能的方向发展。
目前,人工智能正在改变我们的生活、工作和娱乐方式。在物联网领域,人工智能驱动的分析和预测模型能够从数十亿数据流中提取洞察力,简化操作并提高安全性。在医疗保健领域,人工智能有助于诊断、药物发现和个性化治疗计划,如人工智能在医院的应用有助于改善患者护理。在农业领域,人工智能有助于提高精准度、优化资源使用和改善作物管理。在音乐领域,人工智能有助于作曲、音乐制作和推荐,鼓励创造力。在教育领域,人工智能驱动的个性化学习和智能辅导以及虚拟教室改变了传统教学方法。这些应用展示了人工智能如何提高各种不同领域的效率、可持续性和创新性。总之,机器思维使机器和人工智能系统能够像人类思维一样处理信息、推理和决策,所使用的算法和计算模型模拟感知、学习、解决问题和决策等认知过程,从而在很大程度上替代人类思维和决策。人工智能的发展不仅提升认知智能,还达到人类特有的文化水平,这就是文化人工智能。
文化人工智能作为认知智能的高级形态
目前,文化智能仍是人类所特有的。如果人工智能拥有了文化,那么其就实现了“通用性”。何为文化?《人类学词典》对文化的早期定义是“包括知识、信仰、艺术、道德、法律、风俗以及人类或社会成员获得的任何其他能力和习惯的复杂整体”,[28]这种复杂整体就是“文化智能”,其是一种基于认知智能和情感智能的高级智能形式。如果能将文化中的知识、信仰、道德、法律、风俗和习惯嵌入人工智能,那么我们就将实现文化人工智能。一般来说,具有情商的人能够理解人与人之间的差异,而具有文化智能的人则能够解读个人及其所属群体的特征。
埃利(P. C. Earley)和莫萨科夫斯基(E. Mosakowski)将文化智能定义为“局外人看似天生的能力,能够以其同胞的方式解读一个人不熟悉的、模棱两可的姿态”,[29]这种文化智能由认知、身体和情感动机三部分组成,存在于人的身体和头脑中。根据这些要素,他们将文化智能分为六类:一是外省型,即能与背景相似的人愉快合作,但与背景迥异的人相处时显得力不从心;二是分析型,即试图通过各种途径了解异域文化的规范和期望,如在去另一个国家旅行前购买该国的短语手册;三是自然型,即拥有学习文化的直觉天赋,不需要系统的学习过程;四是大使型,即能够轻松与其他文化进行交流,并在不了解该文化的情况下让该文化中的人感到舒适;五是模仿型,即能让客人感到自在,善于在不同文化间建立信任并捕捉文化线索;六是易变型,即擅长文化智能的所有三个组成部分,甚至可能被误认为是外星人。
安格(S. Ang)等人提出了一种衡量文化智能的方法,将其定义为“一个人在跨文化环境中有效发挥作用的能力”。[30]文化智能并不是针对某一特定文化,而是在跨文化环境中有效工作的能力。范·戴恩(Van Dyne)等人认为,文化智能包括元认知(计划、意识、检查)、认知(学习、推理)、动机(目标、意图)和行为(包括言语和肢体的表现方式)等方面。[31]这些方面虽然不完全等同,但为我们提供了衡量文化智能的多维视角。显然,文化人工智能必须借鉴人类的文化智能。
在新一代人工智能研究中,为了适应新的信息环境,肖人彬提出将传统人工智能(AI1.0)推进到人工智能新阶段(AI2.0)的观点。他认为,人工智能中的集体智能(CI1.0),即蜂群智能(低等生物的觅食行为),正向群体智能(CI2.0)演进,后者是由复杂任务驱动产生的人类合作行为。他还指出,在这一演进过程中存在一个被忽视的过渡阶段(CI1.5),即低等/高等生物的合作行为模仿。肖人彬进一步将钱学森的“智慧元综合”视为集体智能的升级版本,即仿生智能的高级阶段(CI3.0),这一阶段由心理行为驱动,涌现出高级智能。他认为具有深度不确定性的大语言模型和大数据的双轮驱动是CI2.0向CI3.0的演进路径,从而形成了完整的集体智能发展框架(CI1.0、CI1.5、CI2.0和CI3.0)。[32]笔者认为,这种群体智能的演进是一个适应性表征过程,而CI3.0正是文化人工智能的具体形态。
问题在于,文化如何融入人工智能呢?这正是建构文化人工智能认知架构的核心问题(见图1)。图1展示了这一过程:具有文化属性的价值(情感、道德等)通过人工智能实现物理化,而人工智能则通过符号表征(字符串等)形成可解释性假设集(表现形式)来实现价值,这一过程是循环往复的。以文化融合抵制认知帝国主义方法[33]为例:这种方法强调如何将本土知识体系(特定文化)融入人工智能开发,以抵制认知帝国主义(或认知霸权主义),并促进包容性,通过批判西方认识论的主导地位,强调偏见的风险,并主张纳入多样化的认识论来实现。这种文化融合方法借鉴人工智能伦理学、原住民研究和后殖民理论,强调与原住民社区的共同创造、原住民数据管理的伦理协议以及人工智能算法的适应性。
这种文化嵌入人工智能的典型案例旨在使人工智能更适合特定民族(如少数民族)和特定人群(如老年人群体)。其中涉及几个关键概念和方法:一是本土知识体系为人工智能发展的基础提供丰富的整体理解,强调系统内所有要素的相互联系;二是参与式设计和共同创造,即一种独特的参与式设计方法,包括本土社区在内的利益相关者应积极参与人工智能设计过程;三是两眼观察,即主张利用本土和西方的科学知识体系来更全面地认识世界;四是人工智能开发的伦理框架,即遵循负责任地开发人工智能的原则,包括尊重自主性、防止伤害、公平性和解释性;五是数据主权和原住民协议,即数据主权涉及原住民的数据权利和管理;六是文化介入的人工智能算法,即开发有文化背景的人工智能算法,需要重新思考数据来源、学习过程和这些算法的输出;七是本土语言与语义的融合,即将本土语言融入人工智能进行自然语言处理,这不仅是一项技术挑战,也是一项伦理挑战。这需要开发能够理解和处理这些语言的复杂语义与结构模型,其中许多语言所蕴含的文化含义不易被翻译成其他语言。
为了将本土认识论纳入人工智能,必须采用新颖且尊重本土认识论的方法,这些方法包括:一是参与式设计,即让原住民社区参与人工智能开发,确保以尊重原住民的方式将其前沿知识和观点融入其中;二是合乎道德的数据收集,即这一过程要尊重本土数据主权和知识产权;三是适应人工智能算法,即适应人工智能算法以反映本土知识体系,需要重新评估和修改传统的数据结构与处理方法;四是机器学习中的文化语境,即将特定文化语境纳入机器学习模型需要超越传统的统计方法,如新型智能手机需要考虑汉语的简体和繁体。
这些方法表明,文化完全可以影响或塑造人工智能设计。人类文化学表明,文化造就了人类认知的独特性,这就是人类特有的“文化智能”。[34]那么,不同的文化智能的核心是什么?托马塞罗(M. Tomasello)认为是“共享意向性”——文化智能的一个关键差异制造者——不仅提供了新的心理过程,支持新形式的合作社会性和累积文化,而且彻底改变了人类认知。所谓的“共享意向性”是一套社会认知技能和合作动机,构成或促成共同关注和代理、合作交流和学习,其将类人猿的个体思维方式转变为人类合作的思维方式,并使协作和累积文化及其所有认知高峰得以实现。然而,莫尔(H. Moll)认为,“共享意向性”只有在社会领域才会产生关键性的差异,人类独特的社会发展在其独特的“共享意向性”形式的内在驱动下,会产生全面的差异,而且会一直持续下去。而托马塞罗则坚持认为,“共享意向性”不应被视为一种具有认知模块通常特征的生物适应性,因为其影响着不同领域的人类认知和问题解决的模式或形式。[35]
为了回应莫尔的异议,托马塞罗提出了“文化智能假设”:人类独特的认知成就可归因于人类独特的社会认知适应性,即创造、传播和参与合作性和累积性的文化技能、实践和知识。根据这一假设,动物在系统发育和本体发育过程中,认知的三个核心方面(表征、推理和自我调节)均发生了转变。在表征方面,动物如猿类对事物的抽象表征和分类,首先转化为从多个不同的社会视角对事物的多个不同方面的社会表征,随后进一步发展为对共同客观世界的完全命题表征,将其作为不同视角的共同目标。这些视角可能匹配,也可能不匹配,但同样对其正确性负责。在推理方面,基于意向、因果(或原逻辑)关系的推论首先转变为社会视角的递归推论,随后进一步发展为完全反思的、基于逻辑的推理,并受到集体共享的、代理人中立的正确论证或思考规范的约束。在自我调节方面,猿类对个人(第一人称)目标导向过程的自我监控和自我调节首先转变为第二人称版本,随后进一步发展为集体的、规范的版本。这些转变标志着从猿进化到人的三个关键认知过程。
如果承认表征、推理和自我调节是认知的核心要素,那么也必须承认它们构成了通用智能的核心。通用智能假设认为,主体所拥有的支持更高通用智能的作用越大,其独特的行为灵活性、生态半径和适应性就越强,从而能够更可靠、更高效地处理和解决各种认知问题。通用智能假设反过来似乎支持了文化智能假设。这就是说,灵长类动物普遍进化出了与同类竞争和合作的复杂社会认知技能,而人类则在此基础上进化出了能够实际创造不同文化群体的技能,这些群体各有一套独特的人工制品、符号、社会实践和制度。如人类儿童若想在其所出生的文化世界中有效生存与发展,就必须学会使用这些人工制品和工具,并参与这些实践活动,而这一过程需要借助社会学习、交流和模仿等特殊的社会认知技能。因此,人类在本体发育早期所展现出的强大的社会文化认知技能,可被视为推动人脑认知复杂发展的一种“启动器”,这就是“文化智能假说”。[36]随后,莫尔进一步提出变革性文化智能假说,即“共享意向性”作为社会性智能,一直处于不断变革之中。人类的认知,包括生理方面,皆被人类的社会性和意向性等文化因素彻底改变,最终发生了质的改变。[37]由此观之,人工智能借助文化智能实现质的飞跃,关键在于借助语境(一种人类独特文化体现)的力量。
作为文化人工智能的语境化人工智能
人类是文化的物种,语言的出现使人类进化成为语境化的物种。为了实现更智能的人机交互,人工智能也需要具备语境化[38]和形式化[39]的能力,这就是所谓的“语境中的人工智能”——一种人机交互的人工智能。关于人机关系,可能存在一种“虚假洞察”,即构建人与人工智能之间富有成效的关系的核心在于定义人工智能与人之间从属关系的需求集合。如交谈人工智能(Talk AI)需要具备可理解性、多功能性、可定制性和可管理性以及语境感知能力。[40]事实上,交谈人工智能并不要求选择特定的算法,而是通过逐步展示机器学习过程,以人为中心研究和应用人工智能系统,其核心是定义一系列改变人工智能与人之间从属关系的需求。因此,人工认知智能应具备连贯性、多用途性、可控性以及语境感知能力。在这里,交谈人工智能的智能性(intelligibility)是指其认知架构必须能够自我表述,向用户说明其知道什么、如何知道以及围绕用户在做什么,这意味着交谈人工智能需要具备可理解性(comprehensibly)。适应性是评估一个人工智能架构智能性的关键指标,即当人工智能为特定的环境设计时,其是否能够提供足够的能力,从而在不同的环境或语境中进行实质性调整,并满足用户的愿望。如一个控制房间的机器人“知道”用户的偏好,但当用户询问时,其是否能够解释用户的家庭情况?这是机器人在特定语境中对自然语言的理解能力问题。
那么,如何让人工智能系统真正理解人类语言呢?量子计算语义学方法可能是一种更有效方法,即通过量子纠缠对自然语言进行语境化处理。一般来说,语句的意义不仅取决于其各个组成部分,还取决于整个语境。尤其是在讲故事等语言表达中,组合词形成的意义是通过复杂语境产生的,故事的整体语境起着重要作用。每添加一个新词,语境就会更新一次,这个过程会一直重复,直到所有的词都出现在文本中,这种依赖语境决定词和语句意义的方式比大模型的统计概率方式更准确。量子计算语义学借用量子力学中的“纠缠”概念来说明这个过程,即一个文本中的不同词语是如何“纠缠”在一起从而构成文本意义的。或者说,量子计算语义学利用量子理论对语言的语义功能进行建模,以此来捕捉句子的意义。该模型假设,量子信息量表征了意义,如表征量子系统状态的希尔伯特空间的密度算子。叠加、纠缠和不确定性是量子理论所允许的整体和语境特征的例子,其可以解释为什么语句能够根据语境具有多重含义。这意味着人类的感知和思维本质上不是单一的,而是合成的。经典语义学的分析和构成框架之所以不能很好地捕捉到格式塔思维,是因为其基本上是从一个复合表达式的各组成部分之含义来推导其整体含义的。
在量子计算语义学中,意义通常可以表征为意义的叠加,并被视为基本的动态对象。[41]整体意义决定部分意义,而部分意义往往较整体意义更加模糊,因为部分意义具有片面性和碎片性。量子计算逻辑可能解决这一问题。如基于量子形式主义的特殊整体特征的语义学认为,语言中的每个公式都会产生一个量子回路,并以可逆的方式将公式的密度算子转换为原子亚公式的密度算子。[42]这一过程违反了从整体到部分的构成性原则,[43]从而为卢卡西维茨量子计算逻辑(即多值逻辑)的新量子逻辑提供了语义特征。
在微观物理系统中,“纠缠”是量子信息和量子计算中的一个有用的概念工具。若将这一概念用于人工智能领域来组合概念(概念或单词纠缠),会带来怎样的结果呢?纠缠感知向量编码算法[44]是一种无须翻译的基于认知图像的新方法,智能体无须事先了解与概念相关的术语,而是选择更加直观的方式进行处理。这项研究的附加值体现在一个自动系统上,可以教人工智能识别和处理纠缠概念。这是文本表征形式从抽象符号到语义向量(矢量)发展的一个重大突破,让人工智能可以理解其处理的向量的意义,因为向量本身包含了语义。这也是适应性表征的一个实例,表明语义向量表征优于符号表征,并且解决了抽象符号的“符号接地问题”。语义向量表征的出现有力地说明,表征方式的变革是人工智能研究突破的关键所在。[45]没有好的表征方式,就不会有好的认知结果。
显然,在概念使用上,量子计算语义学利用了“纠缠”这一概念,这就是“概念借用”。[46]作为一种实用方法,纠缠概念可用来确定概念是否纠缠在一起。如运用纠缠感知向量编码算法将概念组合扩展到了两个视觉概念,即根据频率和附加语义信息来构建一种状态,并确定编码纠缠的真实向量,从而完成原始编码。又如当“动物”和“行为”这两个独立概念结合成“动物行为”这一整体概念时,它们就会纠缠在一起,而“动物行为”会进一步与“食物”“捕食”“交配”等概念纠缠,因为动物需要“吃饭”和“繁衍”。
更为重要的是,这种概念纠缠的观点同样适用于人工智能。人工智能中的许多概念来自其他学科,如“适应性”来自生物学,“表征”来自心理学,组合概念“适应性表征”指的是人工系统如何随着时间的推移不断修正自身行为以更好地完成任务。来自认知科学的“具身性”是指人工智能利用物理相互作用来实现表征和控制的属性。来自系统科学的“涌现性”可说明意识或智能是复杂、分散的人工智能系统的特性,即意识行为产生于组件之间的相互作用。这种广泛的概念借用使人工智能最终将计算机拟人化(如机器人)和思维计算机化(如智能计算),即通过广泛的概念借用,人工智能将计算机描述为具有心理逻辑特性的计算大脑,而脑科学和认知科学则从计算和信息的角度将大脑和心智描述为生物计算机。
作为文化人工智能的伦理人工智能和可解释人工智能
文化人工智能作为认知智能的高级形式,其具体表现形态是多方面的,伦理人工智能和可解释人工智能是其中两种主要形式,这是因为伦理和解释均具有文化属性。伦理人工智能并非指人工智能的伦理问题,而是指具有道德属性的人工智能,但也包括伦理问题,这类似于道德的人和人的道德的关系。人们期望人工智能在伦理方面与人类保持一致,从这个意义上讲,人工智能的伦理是微观人工智能的一部分。此处的微观是指的技术层面,人工智能技术在帮助人们提高工作效率的同时,可能会在使用者毫无察觉的情况下加速认知技能衰减并阻碍技能发展。[47]因此,随着人工智能技术日益普及,我们有必要深入探讨人工智能对人类技能的影响,尤其是在健康资源、脑机接口、机器人手术等关乎人类生命和健康的领域。
这就需要构建人工智能伦理的认知架构。[48]众所周知,人工智能的“黑箱”问题导致了其应用的责任困境。未来的人工智能将面临许多其创造者未曾预见的伦理困境,而且其解决方案无法通过硬编码实现。正如马库斯(G. Marcus)和戴维斯(E. Davis)指出,“通过‘算法’计算出来的程序所作的决定,有一种客观性的光环,它给官员和公司高管留下了深刻印象,也让普通公众感到害怕。程序的运作是神秘的——训练数据是保密的,程序是专有的,决策过程是一个‘黑箱’,甚至程序设计人员也无法解释——因此,个人几乎不可能对他们认为不公正的决定提出任何质疑”。[49]
鉴于此类社会和伦理困境的敏感性及其对人类社会的重大影响,当人工智能作出错误选择时,我们需要了解它们是如何走到这一步的,以便纠正错误并防止其再次发生。要做到这一点,就必须打开人工智能的“黑箱”,尤其是当它们在人类世界中行动、互动和适应时,以及它们与这个世界中的其他智能体互动时,如何将认知架构应用于伦理人工智能,即如何让人工智能具有透明性[50]、可解释性[51]并具备责任感[52],目前仍然是一个亟待解决的难题。
要实现这种“伟大的人工智能权衡”,[53]就必须更好地了解人工智能的认知架构。认知架构是智能思维的概念模型,无论是人类、动物还是人工智能都必须能学习、处理、存储和重复使用已有知识和信息,并针对所面临的问题作出决策并执行决策。人工智能系统无疑可以改善我们的生活,但我们是否应该拥抱人工智能系统的能力,使其得到更广泛的应用?还是说,鉴于当前人工智能存在的不可预测的错误、易受偏见影响、易受黑客攻击以及决策缺乏透明度等问题,我们应该更加谨慎?在不同的人工智能应用中,人类需要在多大程度上保持参与?我们应该对人工智能系统提出怎样的要求,才能给予足够的信任使其自主工作?
迪格纳姆(V. Dignum)将伦理人工智能分为三个重点领域:一是设计中的伦理,即支持人工智能设计和评估的监管/工程流程,因为其适用于社会利益;二是通过设计的伦理,即人工智能的伦理行为,也被称为伦理人工智能;三是针对设计的伦理,即人工智能研究、设计、建造、使用、运行和维护以及退役的行为准则、标准、法规和认证程序。[54]具体而言,设计中的伦理关注人工智能系统融入现代社会时,支持其设计和评估的监管和工程流程;通过设计的伦理是指人工智能的伦理行为以及实现这一目标的技术手段;针对设计的伦理侧重于确保人工智能研究、设计、开发、部署和管理/维护的研究人员诚信的实际要求。在人工智能领域,将心智视为智能体的集合(即许多认知代理或过程集,它们之间几乎无法相互理解)的想法并不新鲜,但目前的人工智能仍然缺乏因果思维、表征和行动方式的多样性。
这就需要一个人工智能的伦理认知架构,[55]要求系统中的智能体是人工道德主体,这是可能且可行的。一方面,我们不能完全要求社会中的每个个体都是道德主体(通过教育来规训),但我们可以设计制造人工道德主体(就像制造有用的、安全可靠的工具),既然我们能够对智能进行认知测量和解释,当然也应该在人工智能中设计出人工道德主体,而且是可解释的,否则认知测量就失去了意义。认知作为理性活动的一般结构,其过程模型以信息结构处理的交互功能块的形式呈现。根据这种活动方法,自然智能和人工智能的概念得以澄清,并确定了知识本质的特征属性,证明智能、知识与活动是共生关系。[56]这种对人工认知智能的计算表征研究[57]有助于建构伦理人工智能,因为道德属性嵌入人工智能离不开计算和表征。
另一方面,伦理人工智能必须具备可解释性,即可解释人工智能。而最佳的解释与理解密切相关。这就需要引入科学解释的视角。哈利法(K. Khalifa)等人认为,[58]科学理解超越了单纯的知识获取,还涉及对现象的因果机制、结构和功能方面的深入认识。支持科学理解模式的三个原则分别是解释原则、关联原则和知识转换原则。具体而言,第一个原则是“解释性基础”,即理解“为什么是Y”需要对该问题进行正确的解释;第二个原则是“关联原则”,即对Y的正确解释信息(即Y的解释性关联)的数量与对Y的理解能力的提升成正比;第三个原则是科学知识原则,它将科学认知转化为科学知识,即随着人们对Y的解释性信息的学习,对Y的理解会提升,这与我们对Y的解释性信息所附加的科学认知具有更高的相似性。这种科学解释性知识指的是主体对“为什么是Y”的知识,只有当存在某种X时,主体S认为X解释了Y,这才能被视为S的科学解释性评价的正确结果。在认知科学中,存在四种主要解释方式:机制的、计算的、拓扑的和动态的。要实现完整而深入的理解,就需要将这些不同的解释方式进行整合。如通过多元性、解释一致性、实效性、多学科合作和非还原性等手段,[59]即基于理解的整合和基于机制的整合,旨在将各种不同的解释性整合为一种机制性解释。
当然,这种基于表征的科学解释存在一定的争议。反表征主义将认知描述为一个更简单的过程,而表征主义则将心理内容视为行为体的认知和行为状态与环境之间的中介。反表征主义主张解释要考虑认知主体和环境可供性的关系,传统的认知主义则通常不会考虑这些因素,因为认知主义是以神经为中心的。从认知生成视角看,“具身心智”观点值得关注,该观点认为“认知不是由一个被赋予的心智对一个被赋予的世界的呈现,而是在一个被赋予的世界所表现的各种反应的历史基础上对世界和心智的作用”。[60]显然,这一观点挑战了传统认知科学及其认知模式,后者将人脑视为数字计算机,在符号处理的基础上进行规划、学习、理解和解释。
结语
在当今人工智能蓬勃发展的时代,以ChatGPT和DeepSeek等大型语言模型为代表的人工智能技术正被广泛应用于各个领域,其带来的诸多问题亟待我们认真应对。从智能发展的视角看,计算智能和感知智能正逐步向认知智能演进,而认知智能亦将逐渐融入文化属性,形成文化人工智能。若要实现人工智能的通用化和伦理对齐,需着重关注人工智能的语境化、伦理对齐、可解释性与可靠性,从而推动具身人工智能或通用人工智能的实现。这一过程复杂且充满挑战,绝非一蹴而就之事。然而,人工智能终将迈向通用化、可解释以及安全可靠的发展阶段。
(本文系国家社会科学基金重大项目“人工认知对自然认知挑战的哲学研究”的阶段性成果,项目编号:21&ZD061)
注释
[1]魏屹东:《建构文化人工智能的可能路径》,《人民论坛·学术前沿》,2024年第14期。
[2]R. J. Sternberg, Beyond IQ: A Triarchic Theory of Human Intelligence, Cambridge University Press, 1985.
[3]R. J. Sternberg, A Triarchic View of Intelligence in Cross-Cultural Perspective, In S. H. Irvine & J. W. Berry (eds.), Human Abilities in Cultural Context, Cambridge University Press, 1988.
[4]J. Hawkins and R. Dawkins, A Thousand Brains: A New Theory of Intelligence, New York: Basic Books, 2021.
[5]M. Bardal and E. Chalmers, "Four Attributes of Intelligence, a Athousand Questions," Biological Cybernetics, 2023, 117(6).
[6][8]U. A. Agarwal and K. Jain et al., Managing People in Projects for High Performance, Springer Nature Singapore Pte Ltd, 2023.
[7]Ori Learning, "Cognitive Intelligence vs Emotional Intelligence: Key Insights," 4 October 2024, https://orilearning.com/cognitive-intelligence-vs-emotional-intelligence/.
[9]近年来,机器阅读理解已成为所有语言处理研究中最流行、最具潜力的方向之一,其使计算机能够像人一样存储文章、分析语义和回答问题。随着深度学习技术的发展,机器阅读理解在某些特定任务中已经可以与人类水平相媲美,这依赖于人工智能逻辑系统的三个关键因素——平台、数据和算法。可以预计,随着计算机的算力和数据量的不断增长,对算法的探索和改进已成为人工智能研究备受关注的领域之一,如DeepSeek在算法而非算力上胜出。
[10]这些心理过程包括注意、知识形成、工作记忆、问题解决、推理和计算、判断、理解力、语言表达和信息处理等。
[11]SelfCareFundamentals, "Cognitive Intelligence: A Guide To What It Is & Why It Is Important," 16 October 2024, selfcarefundamentals.com.
[12]R. J. Sternberg, Cognitive Psychology, Harcourt Brace College Publishers, 1996.
[13]V. Varriale and M. W. van der Molen et al., "Mental Rotation and Fluid Intelligence: A Brain Potential Analysis," Intelligence, 2018, 69(C).
[14]D. Góngora and M. Vega-Hernández et al., "Crystallized and Fluid Intelligence Are Predicted by Microstructure of Specific White-Matter Tracts," Human Brain Mapping, 2020, 41(4).
[15]I. van Rooij and O. Adolfi et al., "Reclaiming AI as a Theoretical Tool for Cognitive Science," Computational Brain & Behavior, 2024, 7(4).
[16]F. El Kalach and I. Yousif et al., "Cognitive Manufacturing: Definition and Current Trends," Journal of Intelligent Manufacturing, 2024, 35(6).
[17]认知信息学作为一门新兴学科,研究自然智能和人脑中的信息处理和认知过程,为理解解决难题、学习、决策和意识等人类认知过程提供了理论框架,并已应用于认知机器人、认知学习系统和认知代理系统。参见:T. Jiang and J. Zhou et al., "A Multi-Dimensional Cognitive Framework for Cognitive Manufacturing Based on OAR Model," Journal of Manufacturing Systems, 2022(65)。
[18]T. Jiang and J. Zhou et al., "A Systematic Multi-Layer Cognitive Model for Intelligent Machine Tool," Journal of Intelligent Manufacturing, 2024, 35(8).
[19]李德毅:《认知物理学基础:认知自然和人类自身的奠基石》,《人民论坛·学术前沿》,2024年第14期。
[20]M. Srivani and A. Murugappan et al., "Cognitive Computing Technological Trends and Future Research Directions in Healthcare—A Systematic Literature Review,"
Artificial Intelligence In Medicine, 2023, 138.
[21]R. Priyadarshi and R. R. Kumar et al., "Techniques Employed in Distributed Cognitive Radio Networks: A Survey on Routing Intelligence," Multimedia Tools and Applications, 2025(84).
[22]S. Parvina and F. K. Hussainb et al., "Cognitive Radio Network Security: A Survey," Journal of Network and Computer Applications, 2012, 35(6).
[23][24][25]Z. Shi, Intelligence Science: Leading the Age of Intelligence, Beijing: Tsinghua University Press, 2021.
[26]M. Ren and N. Chen et al., "Human-Machine Collaborative Decision-Making: An Evolutionary Roadmap Based on Cognitive Intelligence," Springer, 2023, 15(7).
[27]M. R. Velankar and P. N. Mahalle et al., Cognitive Computing for Machine Thinking, Springer, 2024.
[28]T. Barfield, The Dictionary of Anthropology, Blackwell, 2000.
[29]P. C. Earley and E. Mosakowski, "Cultural Intelligence," Harvard Business Review, 2004, 83(1).
[30]S. Ang and L. V. Dyne et al., "Cultural Intelligence: Origins, Conceptualization, Evolution and Methodological Diversity," Oxford University Press, 2015.
[31]L. V. Dyne and S. Ang et al., "Sub-Dimensions of the Four-Factor Model of Cultural Intelligence: Expanding the Conceptualization and Measurement of Cultural Intelligence," Social and Personality Psychology Compass, 2012, 6(4).
[32]R. B. xiao, "Four Development Stages of Collective Intelligence," Front Inform Technol Electron Eng, 2024, 25(7).
[33]Y. Ofosu‑Asare, "Cognitive Imperialism in Artificial Intelligence: Counteracting Bias with Indigenous Epistemologies," AI & SOCIETY, 2024.
[34]L. Koreň, "Cultural Intelligence, Shared Intentionality and Human Cognitive Uniquenes,"
Biology & Philosophy, 2024, 39(30).
[35]M. Tomasello, "A Natural History of Human Thinking," Cambridge: Harvard University Press, 2014.
[36]E. Herrmann and J. Call et al., "Humans Have Evolved Specialized Skills of Social Cognition: the Cultural Intelligence Hypothesis," Science, 2007, 317(5843).
[37]H. Moll, "The Transformative Cultural Intelligence Hypothesis: Evidence from Young Children's Problem-Solving," Review of Philosophy and Psychology, 2018, 9(1).
[38]魏屹东:《自语境化:智能机似人思维的关键》,《中国社会科学报》, 2013年6月10日,第461期。
[39]陈小平:《大模型关联度预测的形式化和语义解释研究》,《智能系统学报》,2023年第4期。
[40]R. Shrivastava and M. Jain et al., "Cross-Cultural Translation Studies in the Context of Artificial Intelligence: Challenges and Strategies," Cognitive Science and Technology, 2023.
[41]D. Aerts, S. Sozzo, "Quantum Structure in Cognition: Why and How Concepts Are Entangled," Lecture Notes in Computer Science, 2011(6571); D. Aerts, S. Sozzo, "Quantum Entanglement in Concept Combinations," International Journal of Theoretical Physics, 2014, 53(10); D. Aerts and L. Beltran et al., "Quantum-Theoretic Modeling in Computer Science," International Journal of Theoretical Physics, 2021, 60(1).
[42]M. L. Dalla Chiara and R. Giuntini et al., "Quantum Computation and Logic: How Quantum Computers Have Inspired Logical Investigations," Zurich: Springer, 2018.
[43]构成性原理是说,一个整体的意义完全由其组成部分的意义及其组合顺序来决定。这是加和意义上的整体,不是整合或纠缠意义上的整体。
[44]R. Leporini, "Extending a Model Language to Handle Entangled Concepts in Artificial Intelligence," Foundations of Science, 2024.
[45]李德毅、张天雷、韩威等:《认知机器的结构和激活》,《智能系统学报》,2024年第6期。
[46]L. Floridi, A. C. Nobre, "Anthropomorphising Machines and Computerising Minds: The Crosswiring of Languages between Artificial Intelligence and Brain & Cognitive Sciences," Minds and Machines, 2024, 34(5).
[47]B. N. Macnamara and I. Berber et al., "Does Using Artificial Intelligence Assistance Accelerate Skill Decay and Hinder Skill Development without Performers' Awareness?" Cognitive Research: Principles and Implications, 2024, 9(46).
[48]S. J. Bickley, B. Torgler, "Cognitive Architectures for Artificial Intelligence Ethics," AI & Society, 2023, 38(2).
[49]G. Marcus, E. Davis, Rebooting AI: Building Artificial Intelligence We Can Trust, Pantheon Books, 2019.
[50]S. Larsson, F. Heintz, "Transparency in Artificial Intelligence," Internet Policy Review, 2020, 9(2).
[51]S. Milli and F. Lieder et al., "A Rational Reinterpretation of Dual-Process Theories," Cognition, 2021.
[52]F. Doshi-Velez and M. Kortz et al., "Accountability of AI Under the Law: The Role of Explanation," Berkman Klein Center Research Publication, 2017.
[53]M. Mitchell, Artificial Intelligence: A Guide for Thinking Humans, Farrar, Straus and Giroux, 2019.
[54]V. Dignum, Responsible Artificial Intelligence: How to Develop and Use AI in a Responsible Way, Springer Nature, Basingstoke, 2019.
[55]S. Cervantes and S. López et al., "Toward Ethical Cognitive Architectures for the Development of Artificial Moral Agents," Cognitive Systems Research, 2020.
[56]N. V. Maksimov, "Knowledge and Information in the Context of Natural and Artificial Intelligence," Scientific and Technical Information Processing, 2024, 51(1).
[57]N. Lee, Artificial Cognitive Intelligence, Cham: Springer, 2024.
[58]K. Khalifa and F. Islam et al., "Integrating Philosophy of Understanding with the Cognitive Sciences," Frontiers in Systems Neuroscience, 2022, 16(1).
[59]G. Galli, "Scientific Understanding and the Explanatory Integration in Cognitive Sciences," In: Aldini, A. (eds.), Software Engineering and Formal Methods, SEFM 2023 Collocated Workshops, Lecture Notes in Computer Science, Springer Nature Switzerland, 2024.
[60]F. J. Varela and E. Thompson et al., "The Embodied Mind: Cognitive Science and Human Experience," Cambridge MA: MIT Press, 1991, p. 9.
The Challenge of Cognitive Intelligence to Computational
Intelligence and Perceptual Intelligence
Wei Yidong
Abstract: The emergence of generative AI has challenged the traditional computational and perceptual intelligence of AI, and initially formed a new form of intelligence called "cognitive intelligence". The development of cognitive intelligence in the field of AI highlights the ability to understand natural language, which brings more humanity and intelligent cultural AI, such as contextualized AI, ethical AI, and explainable AI. These different forms of cultural AI are the specific forms of cognitive intelligence to be expanded, and they are also the specific paths to improve the cognitive ability of large language models.
Keywords: cognitive intelligence, computational intelligence, perceptual intelligence, generative artificial intelligence, cultural artificial intelligence
责 编∕杨 柳 美 编∕周群英
