
近日,《环球时报》刊发《手机追求极致智慧化,数据安全是基石》一文,聚焦一款搭载AI助手的工程样机所引发的“风控风波”。这款手机凭借深度系统集成的AI助手,让使用者可以通过语音指令完成发消息、点外卖,甚至控制智能车载系统等复杂任务。
AI助手能够无视开屏广告,绕过所有的前台视觉界面和消费诱惑,直达用户指令终点。然而没过几天,包括多家金融机构在内的众多主流App,纷纷将这款手机列为“风控重点对象”,采取限制登录、禁用部分功能等措施,甚至直接拒绝服务。
一石激起千层浪。如果AI助手不再只是完成指令的工具,而是辅助人类“决策”的代理人,它是否也能替人类承担由此带来的风险与责任?
当AI助手成为手机的新“帮手”——可以代人们叫外卖、回复消息、安排行程,甚至在我们忙不过来的时候自动投简历、整理文档、查找资料。这种“代劳型”操作,确实能高效处理很多琐事,让生活变得更省心。但正因为它“什么都能做”,人和机器之间的边界开始变得模糊:是我在操作手机,还是手机在“代替我思考”?
这起事件的背后,不只是厂商和平台之间的商业博弈,更是一场关于“谁来管AI”的现实难题。当AI助手拿到手机权限的“最高通行证”,可以自动点开应用、读取信息、下达指令,几乎像一个“无声的代理人”。然而,它没有对应的、完善的“责任制度”来约束。一旦出了问题,如误点支付、隐私泄露,原本清楚的责任线也变得模糊起来,当风险真正发生,到底是谁导致的?谁来担责?用户知情吗?平台设限吗?说到底,这些问题现在都悬而未决,没有答案。
值得警惕的是,当前主流AI助手仍存在“黑箱决策”“幻觉生成”等技术不确定性;尤其在金融交易、医疗咨询等高敏感场景中,难以做到完全可控。更棘手的是,AI助手能够绕过传统交互界面,在合规的指令背后悄然执行各种操作,让风险变得不可控。如果AI助手突破身份验证发起转账、调动门锁、删除文件,甚至访问隐私数据,用户很可能在事发之后,才意识到自身已被“代替”。
AI不能成为免责的“挡箭牌”。它是技术工具,而不是“合法替身”;越聪明的AI,越不能在关键节点“自动做主”。权限可以给,但必须设限;功能可以强,但必须兜底。真正的挑战,不在于AI能做多少事,而在于它在哪些事上必须“适可而止”。
管住“聪明过头”的AI,规矩得先立住。AI助手再“能干”,也得守规矩、明责任。像支付、开门、控制车辆这类高风险操作,必须设置“多道锁”——AI可以先跑流程,但关键步骤的权限与身份认证等,须由用户亲自确认。同时,用户需拥有操作记录的“回放权”和“一键叫停权”,确保自己始终掌握主动。此外,加快推动技术透明与问责立法,并明确安全事件的责任划分。行业层面,应建设统一标准和“可信白名单”,堵住AI助手“偷偷越界”的口子。
除了制度兜底,产品设计要“向用户还权”。AI助手不能仅仅通过冗长难懂的授权协议“悄悄接管”,而应清晰告知其行为逻辑与权限边界,做到“操作透明、权利明确”。坚持“最小可用权限”原则,让用户拥有“随时叫停”的自由。
当然,使用者绝不能把AI当作“万能主脑”来依赖。AI可以协助操作,但不等于可以替你判断;能提高效率,但不能代替审慎抉择。在技术加速推进的当下,每一位用户都应建立起基础的AI风险识别能力,防止把AI当作可以托付一切的“生活主管”。
技术在飞奔,规则须跟上。社会治理要与技术演进同步,把制度、责任与“可控”理念,植入AI运行的底层逻辑中。否则,当“自动化”越来越多渗透用户决策过程,用户相应地也会逐步失去判断力、控制权。
AI可以帮用户打理生活,但不能承担后果。它能接管手机的操作,却接管不了用户的责任。越是走在技术的前沿,越不能忘记规则的红线。让AI跑得快,更要让规则照得见,只有这样,AI方能成为真正可靠的助手,而不是潜在失控的风险源。