网站首页 | 网站地图

每日推荐
首页 > 人民论坛评论 > 正文

人民论坛锐评 | AI搜索误导消费者:该叫停

幻灯片-人民论坛锐评1

有些“推广”,像建议;有些“介绍”,像结论。如今,在AI搜索页面上,一些广告与链接,正悄然以“建议”的方式嵌入用户视野,借助模型语言的流畅与技术的赋能,试图模糊知识与广告之间的边界。

AI本该是我们获取知识、拓展认知的利器,却正在变成部分商家精准营销的新战场。8月20日,《人民日报》刊发《“AI+广告”重在规范》一文指出,当前,AI大模型广泛应用于搜索引擎。这衍生出一类新的广告营销模式:商家通过生产AI“喜欢”的内容投放于平台,使消费者搜索关键词时,自家产品和服务的名称,尽可能多地出现在AI的回答中,从而获取更多的曝光。

广告没有消失,只是换了“马甲”。部分商家通过优化语料、设置提示语、构建人设模板,反向“训练”模型回答,潜移默化中塑造特定排序、引导内容生成。这种操控形式更隐蔽、更系统,表面上是“适配AI喜好”,实际上却在重构用户的信息空间,让推荐逐渐偏离真实、公正与多元。

用户在看似客观中立的回复中,被无防备地引向某个品牌、产品或服务,而这些信息是否经过标注、是否真实可靠,却没有明确告知。尤其在医疗、金融、教育等与群众生活息息相关的领域,商业动机一旦被伪装成“权威解答”,对普通用户的误导可能不仅仅是一次消费决策的失误,还可能造成健康受损、财产受损,甚或影响人生选择。这不再只是体验问题,而是安全问题、信任问题,更是公共伦理问题。

当人们发现,自己是在不知情中被“精准影响”,被算法引导下的商业营销裹挟,“技术信任”的根基也会悄然动摇。技术应该赋能社会,而不是操控规则;应当提供便捷,而不是替用户“做决定”。

诚然,AI搜索与广告结合,具有积极意义。AI为广告的精准触达提供新途径,与传统广告相比,经过AI比较、分析的结果往往更具针对性。但AI作为信息公共设施的属性不能被侵蚀,答案区的“公共性”不能丢。它不属于某一家企业,而是关系到整个社会的知识公平、数字正义与公信力建设。

谁来对这些混入AI搜索的“答案”负责?模型生成不是无人问责。平台有把关义务,商家当有合规底线,开发者需有基本的技术伦理。公共责任不能在技术外衣下“隐身”,而守住这条底线,要加强审核与管理,更需制度保障。

首要的是,设立显性标识。凡属推广内容,不能藏着、掖着。平台须建立统一、醒目的广告标注机制,确保用户一眼识别“这是推广”“此为付费结果”,打破“真假难辨”的信息迷雾,恢复用户的知情权和选择权。其次要完善隐性溯源机制,包括模型调用语料的记录、提示词的来源、投放行为的日志,做到全链条留痕、全流程可查。监管层面需主动出击,前置监管手段,对涉及重点领域、敏感内容的AI生成信息,设立更高门槛和透明审查机制。同时,要加快完善相关法律法规,厘清平台、商家、开发者各方的责任,为技术向善筑牢制度边界。

归根结底,AI技术的发展须服务于社会整体利益。它不仅要“生成得快”,还要“推荐得准”,让用户“用得安心”;不仅是提升效率的工具,更应成为提升公共服务质量、促进社会公平正义的重要力量。

我们期待的,是一个能真正提升信息质量、优化生活体验、保障用户权益的AI生态,而不是被资本操控、算法污染的信息迷宫。技术向善,才能行稳致远;算法有魂,才不会迷路。

让每一次推荐都看得清、说得明、查得准,AI服务才能赢得公众的信任,真正成为人们可信赖的信息助手和不断满足人民美好生活需要的技术支撑。唯有如此,AI才能在新质生产力的赛道上,不跑偏、不变质,稳稳地走向更加广阔的未来。

[责任编辑:王卓怡 王爽]