网站首页 | 网站地图

人民论坛网·国家治理网> 前沿理论> 正文

智能传播的算法风险及其治理路径

摘 要:智能技术接入媒体,促进用户、信息、服务与场景的连接,提升内容产制与传播的效率,但技术风险在媒介传播实践中可能转换生成算法的伦理、法律、文化与意识形态风险。伦理倡导和法律规制是算法治理“在地化”的有效路径。智能传播的算法治理,需要平衡价值观与创新观、技术崇拜与内容供给、技术迭代与法律规制之间的关系,实现伦理、法律、文化等维度的协同治理。

关键词:智能传播 算法 风险治理 意识形态 协同治理

【中图分类号】G206 【文献标识码】A

全球范围内兴起的“人工智能热”,推动了我国一系列国家战略和政策的出台,如2017年7月8日,国务院印发《新一代人工智能发展规划》;12月13日,工业和信息化部又发布了《促进新一代人工智能产业发展三年行动计划(2018-2020年)》等。信息产业的发展趋势、媒介变革的行业需求,推动着智能传播形态、业态与生态的变革。智能媒体不断嵌入公众的社会生活与个人的日常生活。智能技术基于信息、服务、商品、场景的连接,使人、物与地点的信息匹配变得愈发便捷,但也引发了伦理、法律和文化等领域的诸多风险。

智能算法在传播中的应用及其影响

塔勒顿·吉莱斯皮(2014)认为,算法的理解有狭义和广义之分:狭义的理解将其视为特殊的决策技术;广义的理解将其视为建构社会秩序的理性模型。智能算法在媒体行业的接入和可持续性应用,产生了重要的社会影响。

机器算法在传播中的应用

伴随着智能媒体化和媒体智能化的双向进程,智能媒体逐渐成为传媒领域的新主体。作为一种高度匹配信息与用户需求的媒介形态,智能媒体引导传播实践向存储云端化、内容垂直化、需求场景化及行业智能化迈进[1]。算法在传媒业主要应用于内容产品生成、分发两个环节。

内容的自动化生产创造了新的媒体形态。机器人新闻(robot journalism)、传感器新闻、AI主播和AI配音等,便是大数据、机器学习等技术运用的结晶。例如,新华社的“快笔小新”在自动采集体育、财经或气象等信息后,2—3秒钟便可生成相应稿件;今日头条的“张小明(xiaomingbot)”会根据体育赛事实况调整新闻表达并自动配图;英国《卫报》推出的“#Open001”和《精读》(The Long Good Read)等产品,用算法编辑报纸以迎合读者喜好。智能算法有望帮助传媒从业者从机械式劳作中解脱出来。例如,腾讯的写稿机器人“Dreamwriter”不仅全时段无休、年均发稿50万篇,还能智能审核、反馈、纠错;“AI合成主播”依托音视频合成、机器学习等技术,能在特殊情境下取代传统主播的工作。

此外,信息判断的价值取向从经验主义向计算主义偏转,信息分发模式从大众传播走向个性化推荐。“连接”是互联网的要义[2],而平台、用户与信息的算法“再连接”(rewiring/reconnecting)是智能传播的核心。

在平台连接中,智能媒体平台通过协同过滤、社交推荐和流量池推荐等多种算法机制,提供人与信息的连接服务。当前的服务类型主要有以谷歌为代表的搜索引擎类、以Facebook为代表的社交媒体类和以“今日头条”为代表的信息聚合类三种。算法推荐信息的标准被称为“算法价值”,因平台性质不同,具体信息推送标准与优先级会存在差异。在用户连接中,算法主要依赖虚拟空间的用户画像,包括用户的个体信息(如年龄、性别等人口学特征)、行为信息(如点赞、收藏和转发等记录)以及场景信息等。而在移动传播的场景连接中,“场景”成为信息匹配的重要依据,它涉及大数据、移动设备、社交媒体、传感器、定位系统五项要素(罗伯特·斯考伯等,2014)。算法的个性化推荐高度依赖信息、平台、用户和场景的连接。

机器算法对传播的影响

智能技术在宏观上重塑传媒生态,在中观层面形塑传媒业态,在微观层面改变传媒形态。首先,智能技术嵌入国家、社会、媒介与个人的复杂互动,从根本上改变了传媒的生态。基于大数据、物联网与机器学习的智能传播,重构了现有的媒介版图、营销逻辑与规制模式。其次,技术与媒介的联结,催生了平台媒体、计算广告、智能语音等产业。最后,智能技术再造新闻生产流程与分发模式,不仅提高了信息生产效率与分发精准度,还发展出机器人新闻、AI主播和AI配音、传感器新闻、智能推荐等业态。

智能技术的“算法转向”,用技术创新改变着传媒形态、业态与生态,也在传播思维、文化观念与意识形态等层面启发着关于媒介技术与现代性的思考。然而,新技术总是陷入“解决老问题—引发新问题”的循环之中。个人意识形态陷阱、算法伦理、算法侵权、文化及意识形态等风险,凸显出算法治理的迫切性,亟需引起广泛关注。

智能传播的算法风险

技术的不确定性不断向制度、心理和文化渗透,带来技术风险。智能技术的风险既涉及客观事实层面,也包括主观意识层面,还可能转化为经济、政治或文化等领域的现实危机。而当算法被建构为新闻客观主义、技术乐观主义的载体时,无议价能力的机器劳动、个性化推荐以及算法的商业秘密身份在一定程度上遮蔽了技术的风险。

算法的伦理风险

个人意识形态陷阱。智能技术充当了传媒业和用户的中介,借助用户画像实现内容的个性化推荐。而算法借代理用户进行信息筛选的契机,控制了注意力市场和媒体信息系统,但这却可能导致用户“失去意外发现好文章的机会”(尼尔·瑟曼,2011)。算法的内容审查排斥了强化公民意识、社会责任的严肃新闻,将用户禁锢在个人意识形态之中(伊莱·帕理泽,2013)。用户使用算法推荐,也是不自觉地接受平台及其资本逻辑反向规训的过程。在计算思维的主导下,算法平台难以提供造就“公共性”所必需的反思意识(芬威克·麦凯维,2014)。也就是说,算法内容分发的千人千面在一定程度上对构建公共对话的基础提出了挑战。

算法偏见及歧视。智能传播过程中,用户信息可能被滥用,引发算法偏见及歧视等伦理风险。科德·戴维斯(2016)认为,伦理影响是高度依赖语境的,忽视了伦理影响的“在场”就等于主动向创新利益与风险损失间的失衡招手。机器算法也包含价值嵌入,它模糊了人的决策过程,容易让信息被误用并形成偏见。现有的机器无法分辨数据中隐藏的价值偏向,会归纳、同构并放大人类的偏见与歧视(彭兰,2018)。社会偏见融入算法的技术设计和运行过程,又在用户的日常使用中形成偏见循环。

算法的侵权风险

“以隐私让渡换取个性化推荐”是算法推荐的交易法则。算法的技术复杂性、不透明性和商业保密性将用户的知情权搁置,形成智能传播的“黑箱效应”。算法不透明的张力潜隐于智能传播的算法逻辑中。

代码的权力隐含于算法之中。大数据时代的遗忘是特例,记忆是常态。在这个意义上,大数据社会也是一个“监控社会”(surveillance society)。互联网平台的隐私条款往往是单方面且难以追责的。用户的知情权、隐私权和被遗忘权等个人权利,面临着在不知不觉中被侵犯的风险。语音、指纹、面部特征等伴随终生的生物信息,一旦被授权使用,将会带来多方面且长期性的风险。用户的行为、心理等隐私信息若被泄露或非法使用,也会对用户的肖像权、人身和财产安全造成威胁。

算法的文化风险

算法推荐强调的是依据程序指令完成“实然”面向,却忽视了人文价值判断、公众责任意识等“应然”面向。

智能平台的整体设计为负面文化蔓延提供了温床。美国社交网站Reddit的“玩家门事件”和“名人照片泄露事件”凸显出一种“有毒的技术文化”——平台的治理策略和算法逻辑纵容了种族主义与“反女性主义”的活动(阿德里安·马萨纳里,2017)。

智能算法的文化风险不仅关涉平台媒体的信息内容及其传播过程,还关乎平台与社会的互构关系。例如,“你关心的,才是头条”“记录美好生活”“记录世界,记录你”等“平民修辞”“趋势排行”和“页面排名”的“真实”镜像,在一定程度上体现了强烈的私有性、排他性、利益相关性。因此,泰德·斯特瑞佛斯(2015)认为,算法是维持而非打破既有结构的文化使徒,算法文化是一种精英文化的变体,背弃了文化的公共性原则。

算法的公共舆论风险

智能传播时代,社交媒体升级为舆论博弈的主要场域,社交机器人则成为舆论动员的工具。研究发现,Twitter上存在大量攻击、对抗中国政府的虚假信息和机器人账户(吉莉安·博尔索弗、菲利普·霍华德,2019)。而社交媒体上的算法操纵、信息聚合平台的价值观紊乱,必然导致公众舆论风险。具体体现在:智能算法与新型传播机制,打破了主流媒体的渠道垄断,影响了主流价值观的形塑;缺乏价值观引导的技术迭代以及资本逐利的本性,将引发意识形态的新社会风险;智能技术的工具理性跃升价值理性之上,导致算法神话的诞生;一些非理性、煽动性的信息以个性化、互动化和场景化的形式向活跃的青年用户群体传播,解构着社会共识。

智能传播的算法治理路径

算法在提高社会运行效率的同时,也带来“不可解释隐忧”“自我强化困境”“主体性难题”等新社会风险[3]。算法治理是在数据公正、算法透明和算法问责的基础上追求算法正义的过程[4]。算法的风险治理呈现出跨学科、协同治理的路径依赖特征。

数据伦理的倡导

好的技术须是可被专业人员理解、具有高可塑性与低依赖性的[5],其发展应当提升“人的价值”并导向人类的“理想生活”(good life)。美国的“阿西洛马人工智能原则”(Asilomar AI Principles)强调人工智能应符合一般的“人的价值”(尊严、权利、自由和文化等),并列出了安全性、透明性、与人类价值观保持一致、隐私保护、分享利益、共同繁荣、人类控制、非颠覆以及禁止智能装备竞赛等伦理原则。

“智能技术并非价值中立,其媒介应用需要伦理导向”已成为一种社会共识。如《人工智能时代:确立以人为本的欧盟人工智能战略》《通用数据保护条例》和《人工智能道德准则》,皆采取重视智能技术的伦理问题,强调以价值观引导智能技术,造福个人和社会的一贯立场。这些研究和举措可以为我国智能传播的伦理规制提供借鉴。

智能算法的法律规制

算法治理应当从技术、经济、伦理和政治等多维度,平衡技术创新与风险规避。但是,有效的算法治理并非易事。算法问责、算法透明与公开、言论自由与版权保护等,成为智能传播法律规制的关键议题。

近年来,针对算法透明及可理解性,算法与言论自由保护范围的争议,阶层固化、认知偏差和社会歧视的复制、延续和再生产,种族与性别歧视“自我循环”,算法主体性风险,算法内容版权等问题,各国都在寻求法律规制的可行性路径。

如果说欧盟侧重于从源头进行规制,美国注重以案例提供法律参照,那么中国则倾向于针对不同领域进行分散式立法[6]。与片面主张算法透明与公开不同,有研究者认为,更有效的治理方式是“从算法被影响者的角度观察、考量算法的应用结果”[7]。例如,在针对智能技术立法时,网络用户的知情权和参与权也应当被纳入进来。当然,因智能技术处于动态发展之中,技术迭代和法律规制的兼容问题仍需进一步探索。

多元协同的治理

算法实践及其影响的复杂性需要进一步结合“在地化”过程来理解,算法治理模式的探索也应如此。智能传播的算法治理,不仅需要新闻从业者、编程者、规制者等多元主体的共同参与,也需要传统媒体、智能算法平台及政府部门等多部门的支持。

一是主流媒体的价值引领。我国对智能媒体的算法规制由主流媒体与政府部门共同主导[8],且往往是主流媒体发声监督在前,政府部门规制在后。智能算法导致传播权力流动,使传统的主流价值观及相关话语塑造体系面临挑战。主流媒体的价值引领,主要有话语建构和技术采纳两种途径。2017年,《人民日报》、人民网多次质疑算法的伦理问题;2018年上半年,国家网信办针对内容“三俗”问题约谈多个短视频平台并要求整改;2018年下半年,人民日报社牵头打造有价值观的“党媒算法”和新型主流平台。主流媒体的系列举措,既是对社会化媒体的监督,也是一种把握传播话语权、规避意识形态风险、参与协同治理的策略。

二是监管部门的制度完善。基于互联网治理的经验,智能传播的算法风险被纳入政府监管当中。国家网信办出台了一系列规定,将算法治理的理念具象化为相关的条文条例,如《互联网新闻信息服务管理规定》(2017年)《网络安全威胁信息发布管理办法(征求意见稿)》(2019年)等。此外,归网信办管辖的违法和不良信息举报中心,在借助群众力量共同进行算法治理,并通过专项整治和集中约谈等方式在互联网清理规范方面发挥了重要作用。

三是算法平台的技术治理。智能平台的技术干预,是以“技术之力”治理技术风险。凭借大数据和智能算法,阿里巴巴集团推出的“AI谣言粉碎机”,能够通过信源判断、内容特征对比及用户态度计算等方法进行智能辟谣。今日头条的“反谣言技术路线图”披露了谣言从被审核、被识别到被沉淀至谣言库的整个生命周期。智能语言处理、语音及图像识别等人工智能技术,也在推动着自动化事实核查(automated fact-checking)的发展。算法平台的技术治理,体现了从提升信息生产效率到追求信息准确性的取向转变。

算法治理中的观念平衡

面对技术和伦理上的双重困境,各国的本土化发展战略展示出不同治理逻辑。欧美算法治理理念的差异,在数据利用和隐私保护构成的矛盾关系方面尤为明显。针对智能算法带来的技术风险,欧盟主张信息行为主体对其网络信息的有效控制,充分尊重删除权、被遗忘权等权益,将“个人隐私保护”视为一种人格尊严和基本权利,通过对“人工智能价值观”的重视来彰显其独特优势。人工智能技术领先的美国,则偏向维护技术发展的创新观,倾向于将隐私视为一种“基本价值”,侧重“保护言论自由”(Steven C. Bennett,2012)。而实现人工智能的价值观与创新观、技术崇拜与内容供给间的平衡[9],是我国在智能传播时代进行算法治理的必然选择。

从伦理、法律、文化等多维度进行多元协同治理,有助于规避智能传播的算法风险,营造风清气正的网络空间。

【本文作者为华中科技大学新闻与信息传播学院教授;本文系中央高校基本科研业务经费资助文科重大及交叉项目“‘可见性’视角下的社交媒体信息安全研究”(项目编号:2015AD007)、文科前沿探索项目“大数据时代社交媒体中的信息风险及其治理研究”(项目编号:2015AB016)阶段性成果;华中科技大学新闻与信息传播学院硕士研究生郭瑞阳对本文亦有贡献】

注释

[1]胡正荣:《智能化:未来媒体的发展方向》,《现代传播》,2017年第11期,第1-4页。

[2]彭兰:《连接的演进——互联网进化的基本逻辑》,《国际新闻界》,2013年第12期,第7页。

[3]贾开:《人工智能与算法治理研究》,《中国行政管理》,2019年第1期,第19-20页。

[4]郭小平、秦艺轩:《解构智能传播的数据神话:算法偏见的成因与风险治理路径》,《现代传播》,2019 年第9期,第22-24页。

[5][美]兰登·温纳:《自主性技术:作为政治思想主题的失控技术》,杨海燕译,北京:北京大学出版社,2014年,第280页。

[6]汪庆华:《人工智能的法律规制路径:一个框架性讨论》,《现代法学》,2019年第2期,第54-63页。

[7]贾开:《人工智能与算法治理研究》,《中国行政管理》,2019年第1期,第21页。

[8]张志安:《算法推荐及其应用实践的中国“在地性”思考》,《新闻界》,2019年第7期,第14页。

[9]郭小平、汪亚纯:《智能媒体:传媒业态、形态与生态的重构及其反思》,《新华文摘》,2019年第18期,第128-130页。

责编:罗 婷 / 王茂磊

声明:本文为《国家治理》周刊原创内容,任何单位或个人转载请回复国家治理周刊微信号获得授权,转载时务必标明来源及作者,否则追究法律责任。

责任编辑:贺胜兰