技术快跑,也要系上“安全带”
人民网 2026-03-07 12:16:15
“建议禁止AI无差别读取手机电脑屏幕”
“要把安全能力嵌入AI应用的全生命周期”
“严格贯彻AI手机‘非授权不访问’的双重授权原则”
……
全国两会期间,“AI”再次成为热点。从优化应用发展环境到加强人才队伍建设,从加强数据供给创新到促进开源生态繁荣,代表委员们围绕进一步深化拓展“人工智能+”行动踊跃建言。值得关注的是,不少与会代表委员在鼓励加快人工智能技术产业发展的同时,也呼吁加强对隐私安全等AI治理的重视,更好统筹发展与安全。
截至2025年12月,我国生成式人工智能用户规模达6.02亿,普及率达42.8%。这意味着近半数国人已置身于AI构建的生活场景中;2025年,我国人工智能核心产业规模预计突破1.2万亿元。
在产业高歌猛进、技术加速迭代的“高速路”上,须警惕只要速度规模、不顾安全风险的行动偏差,牢记安全是发展的前提,系好“安全带”、握好“方向盘”。
2026年初,AI智能体Clawdbot(现更名OpenClaw)甫一问世,就爆发了“被黑客组织用于窃取API密钥”的重大风险事件;2025年底,一款尚处内测阶段的“AI手机”,为用户提供跨应用的搜索、比价、下单等服务,引发了对隐私与财产安全风险的担忧;近日,一车主因AI语音操作失灵,导致车辆在高速路上夜间行驶时撞上护栏……
当人工智能技术以“日”为单位狂飙突进,以隐私安全为代表的AI伦理问题,也逐步显现。需要注意的是,企业不能将“用户同意”作为免责挡箭牌,通过复杂授权协议或默认勾选机制获取过度权限。隐私安全不是附加选项,而是产业生存的前提条件。人工智能发展绝不能以透支公众信任为代价。
重视隐私安全,需要将用户授权建立于充分的信息对称基础之上。形式上的同意,并不等于真实的知情与自愿。当AI系统通过无障碍权限、进程注入等技术手段跨应用操作时,本质上已触及操作系统底层控制权。这意味着,聊天记录、支付信息、账号密码乃至行为轨迹,都可能在用户不完全知情的情况下被读取与处理。一旦被滥用或遭黑客利用,后果不仅是隐私泄露,还可能演变为财产损失甚至社会安全问题。
重视隐私安全,需要将技术应用建立在以人为本的原则之上。技术应当服务于人,而不是越俎代庖。用户使用AI是为了提升工作效率、改善生活品质,需要的是“参谋”,而不是“判官”。技术越深入生活,越需要清晰的边界与可被信任的权限机制,不能为了“效率优先”将用户置于信息失控的风险之中。
重视隐私安全,需要技术突破与制度约束、价值引导同步推进。人工智能的发展,从来不只是算力和算法竞争,更是价值竞争。技术可以突破边界,但商业行为不能突破法律与伦理底线。只有在发展中守住安全底线,在创新中建立规则意识,才能真正实现技术普惠和成果共享。
当前,人工智能产业方兴未艾。唯有坚守“创新不越界、便利不破安全”的原则,在创新与安全之间找到平衡,人工智能技术才能在快速发展中不断实现其潜力,更好造福我们每一个人。
责任编辑:王天羽
