感知日照丨眼见不再为实:AI诈骗背后的信任危机
大众新闻·海报新闻 2026-04-30 15:34:19原创
宋欣
2026年3月,AI换脸诈骗案件同比暴涨370%,福建一位企业主仅用10分钟,便被冒充好友的虚拟人骗走430万元;香港一起大案中,不法分子利用多人换脸技术,骗取2亿港元。这些数字背后,一个可怕的事实正在浮现:眼见不再为实,耳听未必为真。数字时代的信任根基,正在被深度伪造技术悄然瓦解。
AI诈骗最可怕的地方,不在于技术本身多么“高级”,而在于它精准地瞄准了人性中最脆弱的两个盲区——情感依赖与信任惯性。
一方面,骗子用AI换脸和拟声技术伪造亲友形象实施“亲情围猎”。在郑州,李奶奶接到一通视频电话,屏幕里是许久未见的“孙子”,熟悉的面容和声音,焦急地诉说自己出了急事需要5万元周转。直到工作人员提示向真正的孙子核实,老人才惊觉被骗——对方根本没要过钱。就在几天前,黄石一名70多岁的丁婆婆也遭遇了类似骗局:电话那头传来“孙子”带着哭腔的声音,谎称在学校撞伤了人被索赔4万元,丁婆婆深信不疑地将2万元现金交给了上门取钱的陌生人。同样在湖北,还有两名老人以如出一辙的方式各被骗走2万元。AI拟声技术让“孙子”的声音与原主别无二致,而“紧急救场”的焦虑感让老人们根本来不及思考。犯罪分子利用的,正是那一份毫无保留的爱。
另一方面,社交平台上的“完美恋人”也常常只是AI精心修饰的“空壳”。上海浦东警方破获的一起特大交友APP诈骗案中,77人落网,涉案金额超过1000万元。APP内那些吸引人的“女性”头像与生活照,许多由AI工具生成或经深度美颜处理。受害者小李在虚拟世界中投入了数万元的真金白银,最终却发现屏幕那头的“她”可能只是另一个男人在键盘上敲出的幻影。
如果连最亲密的社交关系都可能被AI深度伪造所操纵,那么人们将如何信任来自屏幕另一端的一切?这种信任的崩塌,是整个社会关系网络的系统性风险。
AI诈骗能如此“高效”,背后是一条成熟而隐蔽的黑灰产业链。犯罪成本之低,令人不寒而栗。
当前AI换脸软件获取极为便捷,部分开源代码与“一键生成”工具在暗网与社交群组中低价流通,无需专业技术背景即可完成操作。在交易平台上,AI换脸、换声服务打包出售,价格低至1元,甚至还有“一条龙”服务的黑灰产以几十元至百元不等的成本接单。
以前只用在娱乐领域的AI变脸,现在已全面蔓延到电信诈骗的“战场”上。骗子们只要拿到一张照片,甚至只是一小段声音,就能“一键生成”另一个“你”——足以让家人在视频通话中难辨真假。青岛胶州警方今年3月破获的一起案件中,查获了5万多条AI合成的动态人脸视频,这些视频能模拟真人完成摇头眨眼,成功骗过多款主流App的人脸识别系统。
更令人警惕的是,这些伪造视频不仅用于诈骗,还被用来批量制作虚拟账户、实施网络洗钱。“人证合一”的传统认证框架在AI面前几乎不堪一击。
AI技术的飞速发展,正将人类带入一个真假难辨的数字时代。以前靠直觉和信任维系的社会关系,如今必须依靠技术防御、法律监管和个人警惕共同维系。我们无法阻止骗子使用AI,但我们可以用法律的严守、技术的反制和人心的清醒,织一张密不透风的“保护伞”。毕竟,信任一旦崩塌,重建起来将比技术本身难上千万倍。
责任编辑:刘玫含
