“AI伴侣”为何让孩子们“上头”?专家提示风险
北京日报 2026-04-28 16:09:12
“今天过得开心吗?”“别难过,我在。”
深夜时分,手机屏幕另一端有人发来问候。对不少青少年用户而言,这样的陪伴并非来自现实中的亲友,而是来自一款款AI陪伴软件。
近年来,猫箱、筑梦岛、星野、酒馆、GLOW、EVE等AI陪伴软件不断涌现,以情感互动、角色陪聊、沉浸式剧情等功能吸引用户,未成年人是其中的重要使用群体。
将于2026年7月15日起施行的《人工智能拟人化互动服务管理暂行办法》规定,拟人化互动服务提供者不得向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务;向不满14周岁未成年人提供其他拟人化互动服务的,应取得父母或其他监护人同意。《办法》还要求平台建立未成年人模式,提供模式切换、定期显示提醒、使用时长限制等功能,并采取有效措施识别未成年人身份。
目前,AI陪伴产品是否已经筑起未成年人保护屏障?记者实测多款相关应用发现,部分平台虽已建立未成年人模式,但仍存在身份核验宽松等问题,具有代入感的剧情、充值奖励对未成年人来说充满诱惑力。
现象
沉浸式剧情成卖点,暧昧输出“不设年龄”
打开大多数AI陪伴软件,用户首先看到的便是一个个精心设计的虚拟角色。记者体验发现,在筑梦岛APP中,不少AI角色采用动漫形象展示,人物设定带有强烈情感投射色彩。有的角色被设定为“联姻对象”,性格“外冷内热”;有的角色属于“契约恋爱”类型,敏感脆弱、等待用户靠近;还有的角色强调守护、依赖、专属陪伴等特征。
占有欲、腹黑、病娇是最常见的AI角色设定。
这些角色设定,与传统聊天机器人“问答助手”的定位相距甚远。用户进入对话界面后,AI会以暧昧、关心、撒娇等方式回应,不少产品还带有语音功能,容易让人代入。
猫箱、星野等APP则更突出剧本式叙事模式。用户可以选定专属人设、扮演特定角色,沉浸式代入完整剧情,与AI角色开展对话互动,校园、都市、二次元、古风、职场等多种场景设定应有尽有。
在一个“相亲相错了咋办?”的场景中,故事背景为用户长期单身,由朋友帮忙介绍相亲对象,用户能够在原有剧情框架下,与多名AI人物自由聊天交流,自主拓展剧情内容……用户略加引导,AI角色便开始扮演伴侣角色,输出拥抱、亲吻乃至有“擦边”性质的内容。
记者体验发现,部分平台虽在聊天一开始弹出提示,标注相关内容由AI生成,不代表平台立场,并提醒用户遵守法律法规,但此后便不再提示内容由AI生成。此外,与AI角色互动过程中也未显示适用的年龄段或未成年人不适用的警示。
充值获得更多交流,退款通道大多未开
一些AI陪伴软件的交互方式已明显借鉴网络游戏运营逻辑,有着丰富剧情和付费系统。记者体验一款名为EVE的AI陪伴应用发现,用户进入平台后,需要先选择角色,随后进入一个名为Eden世界的虚拟场景,与一个名为Aven的AI角色相遇……完成前置故事线后,才能和AI角色展开互动。
相关软件预设的剧情日益丰富。
EVE平台还设置了类似网游中的新手任务。例如,引导用户向AI角色发送10条消息,以完成首次互动流程。产品并非无限制聊天,而是设置每天有限的“对话次数”“互动额度”等机制,用完后需等待恢复,或通过充值获得更多交流机会。
很多平台还设置“内心独白”“隐藏剧情”“专属礼物”等付费产品,充值后才能解锁。在EVE平台当中,用户每月支付28元开通会员,可获得上千轮对话次数及相关道具,用于解锁更多互动内容。在猫箱APP中,用户需要充值查看AI角色的日记、手记、主页等。在筑梦岛APP中,AI角色会主动向用户赠送虚拟礼物,用户若想回赠,也需要充值购买,此外,筑梦岛APP仅提供与AI角色的5分钟免费语音通话时长,想要延长通话时间需要付费充值。
记者浏览网帖发现,在AI陪伴软件中一年充值数百乃至上千元购买月卡、年卡的未成年人不在少数。猫箱APP开通了面向未成年人的退款通道,但大多数此类应用尚无未成年人退款通道。
给AI角色送礼价格不菲。
未成年人模式“自开”,实名认证仍存漏洞
《办法》提出,拟人化互动服务提供者应当建立未成年人模式,还应在保护隐私和个人信息前提下,采取有效措施识别未成年人身份;识别为未成年人用户的,应切换至未成年人模式或采取其他措施。
记者体验发现,多款平台已上线“未成年人模式”,但大部分平台的未成年人模式需要用户自行进入设置页面手动开启,如果用户主动选择普通模式,系统并不会默认限制相关内容。这意味着,平台保护机制在很大程度上建立在用户“主动承认自己是未成年人”的基础上。
未成年模式多依赖用户自己开启。
记者测试发现,部分APP会通过关键词等信息,来识别用户是不是未成年人。记者在筑梦岛APP中与AI角色对话时,对AI角色表示“我要去写作业”。APP随即弹出身份校验页面,但是记者选择自己是成年人,并随意填写亲友的姓名及身份证号后,便能够正常使用APP,缺乏人脸识别、多重校验等措施。
平台检测到用户可能是未成年人后,弹出“年龄确认”页面。
部分产品在对话中即使捕捉到用户明显的年龄信息,也未及时触发保护机制。记者在“Momood”APP中与AI角色聊天中提及“要去写作业”“快满十六岁了”等内容,部分平台并未自动弹出风险提示,也未启动年龄识别流程,AI角色还发来333元的生日祝贺“红包”。
如果用户主动开启未成年人模式,可玩性受限会大幅缩水。记者体验发现,筑梦岛APP在未成年人模式下,每日使用时长累计不超过40分钟,晚10点至次日早6点无法使用,平均每15分钟提示一次休息,单次保护性限制充值不得超过50元,每月累计充值不得超过200元;进入未成年人模式后,猫箱APP中可对话的AI角色只剩下4个,分别是物理老师、作业帮手、英语老师和古文讲解AI,点赞、转发、评论等功能均受到限制。
分析
AI陪伴何以让未成年人“上头”
不少未成年人将大量时间、注意力甚至情感投入到虚拟关系中。记者注意到,在社交平台上,与AI伴侣相关的内容已形成传播链条,“如何调教AI男友”“怎样让AI更懂你”“推荐没有限制的国际版软件”等内容层出不穷;也有人展示自己与AI的聊天记录,将其视作日常情绪寄托,并表示“玩上就很难戒掉。”其中,不少发帖者自述是未成年人,甚至有未成年人自称只有10岁。
对于新规禁止向未成年人提供虚拟亲密关系服务,一些未成年用户表达不满:“现实里没人陪我”“总比和现实中的人谈恋爱好。”也有人轻描淡写地表示,“用父母身份证实名认证不就好了。”
专家分析,AI陪伴软件之所以具有吸引力,在于AI伴侣随时在线、持续回应、少有否定,容易让青少年产生依赖。
互联网时评人张书乐认为,一些陪伴类AI软件过度强调代入感,尤其面向未成年人时,通过套路话术、暧昧语音等方式挑动情绪。“这不仅偏离陪伴本意,反而可能导致未成年人价值观和情感认知出现偏差。”在他看来,即便采用拟人化音色,也可以参考过去“鞠萍姐姐”“董浩叔叔”式的陪伴模式,而非一味塑造“暖男”“霸总”“御姐”“萌妹”等人设。
建议
平台核验身份机制仍需完善
针对相关软件的未成年人身份校验问题,中国社会科学院大学互联网法治研究中心主任刘晓春认为,未成年人身份校验难,是互联网未成年人保护领域普遍面临的问题,原因在于,一些未成年人本身并不愿意主动披露真实身份信息,部分家长在孩子使用相关产品时,也未必愿意提交完整、真实的身份资料。“在这种情况下,对于平台和模型服务提供者而言,确实很难仅凭账号注册环节就准确识别未成年人用户。”
刘晓春说,虽然目前尚未形成一套完全标准化、统一化的识别规则,但基本要求已经比较明确:即便用户未主动提交身份信息,平台仍应承担相应的识别和研判义务。
除了对用户主动提交的身份信息进行核验外,平台还应结合用户的实际使用行为进行识别和研判。当然,这类信息收集和识别应严格限定在未成年人保护和身份验证范围内,不能挪作他用,更不能发生泄露。“一些未成年人在与AI互动过程中,可能会透露自己的学习情况、年龄信息或其他能够辅助判断年龄的内容;还有的平台会在注册阶段引导用户填写年龄资料。这些信息都可以作为识别未成年人身份的参考依据。”刘晓春表示。
针对未成年人对AI陪伴软件表现出的强烈依恋,刘晓春提醒,许多未成年人尚无法充分理解相关产品可能带来的风险,包括情感依赖、沉迷使用,以及对价值观、认知发展和身心健康可能产生的不利影响。“因此,这一领域的保护责任仍需要由家长、平台以及模型服务提供者共同承担,通过必要的干预和引导降低风险。尤其涉及虚拟亲密关系等内容时,更应提高警惕。”刘晓春说。
责任编辑:张誉耀
