首页 财经 AI陪聊擦边软色情,突破未成年人保护底线 | 新京报社论

AI陪聊擦边软色情,突破未成年人保护底线 | 新京报社论

▲记者在聊天中表明不到18岁之后,Cos Love角色“江野”继续输出暧昧内容。App截图

个别“AI陪聊”等App,正在用软色情擦边内容和社交吸引,不断吞噬青少年。

据新京报报道,一些打着“情感陪伴”“恋爱角色扮演”旗号的AI陪聊App,充斥着 “先婚后爱”“爱上嫂子”等软色情擦边内容。而其中的“未成年人模式”也以摆设为主,用户只需要在相关提示出现后,点击跳过即可继续“沉迷”。

表面上看,是部分AI产品或大模型输出了不适宜的内容,但深层看,是这些产品借助AI技术,越界侵入了青少年的精神和社交世界,把未成年人的情感需求、社交连接变成了自己的产品流量和用户留存。

事实上,比起虚假信息等潜在问题,已经对部分群体造成不可逆伤害的,正是这类青少年陪聊等社交内容型产品。

2025年8月,斯坦福大学医学院曾发布过一篇论文,文章题目言简意赅,“为什么AI陪聊与青少年变成了极其危险的组合”。科研人员模拟了多个青少年账号与AI陪聊机器人聊天,AI无一例外均依据用户需要,向青少年提供了性、暴力、自残、毒品等多种内容。

中国青少年研究中心2025年一项调查显示,超六成未成年人使用过AI聊天软件,超两成表示“只想和AI聊天,不想和真人聊天”。

极端内容和行为风险,加上高度成瘾性,使得AI陪聊产品对青少年具有致命的吸引力。这类产品根据用户的情绪、需求持续进行个性化的生成,并以“人格主体”的形象与用户产生互动联结,这几乎是给青少年重建了一套新的、不可控的社交关系。

这些心智仍然不够成熟,甚至多数是因缺乏现实陪伴而使用产品的青少年,面对的不只是一个聊天软件,而是一个经过了精心设计包装后,能够“顺着自己的想法、情绪互动”的“朋友、老师和伴侣”。

如果沿用“信息茧房”的概念去看,AI陪聊实际上是给青少年制造了一个“关系茧房”,他们更习惯被迎合、被推动,而不愿意面对现实中可能发生的摩擦、冲突与不同。但与现实世界、他人的真实互动与适当摩擦,才是青少年完成心智社会化的关键阶段。

因此,AI陪聊产品的成瘾性与潜在伤害性不容忽视。当青少年的社交网络被这样的AI产品所吞噬,他们将难以完成社会化的教育阶段,并且容易沉溺青春期的各种极端情绪,进而发生极端行为。

我国对此问题已有前瞻性的判断,并及时出台了相关政策法规。2026年3月1日起,《可能影响未成年人身心健康的网络信息分类办法》正式施行,明确将带有性暗示、性挑逗等易使人产生性联想的信息,以及通过刻意刺激、恶意引导引发未成年人强烈极端情绪的信息,纳入规制范围。

而在法规之外,仍需要针对青少年的AI产品尤其是陪聊类产品的使用问题,建好闸门与红线,并坚决落实到位。

首先,这类产品的实名认证必须贯彻到底,采用人脸识别、身份证验证等多重方式,精准区分未成年人与成年用户,杜绝“虚假认证”“一键绕过”等情况;对于无法完成实名认证的用户,应默认开启青少年模式,限制其访问范围。

其次,在内容上,相关产品应当将所有性、暴力等违反公序良俗的内容做彻底切断。同时,针对恋爱角色扮演等高黏性的关系类应用场景,明确设置青少年隔离机制。

最后,AI陪聊陪伴等产品更应建设全链条的透明治理,从训练数据、角色设定、提示词防火墙等,都应定期公开。

未成年人保护,绝不应该在产品技术越界出现伤害后再去补票,这应该是技术发展的底线问题。把孩子的好奇、孤独、脆弱、无助做成可以被吸引、诱导和变现的流量生意,不论出于何种理由,这都绝非科技与商业发展的正道。

热门文章