点击右上角
微信好友
朋友圈

请使用浏览器分享功能进行分享

光明日报北京4月19日电(记者 王美莹)4月10日,国家网信办、国家发展改革委、工业和信息化部、公安部、市场监管总局联合公布《人工智能拟人化互动服务管理暂行办法》,自2026年7月15日起施行。
从陪护型机器人化身家人陪伴空巢老人唠家常,到AI倾听者以温暖话语疏解青少年成长的烦恼;从博物馆里“复活”的历史人物与游客跨时空对话,到智能语音玩具陪伴孩子度过童年时光……人工智能拟人化互动服务(以下简称“拟人化互动服务”)正悄然渗透进我们的日常生活。然而,高度拟人化带来的情感依赖、认知混淆、隐私泄露等新型风险,也让规范治理的需求变得日益迫切。
筑牢严密防线,化解拟人化风险
办法精准聚焦拟人化互动服务的特有风险,构筑起三大核心防线。
中国工程院院士、同济大学党委书记郑庆华表示,办法首先确立了“身份提醒”机制,要求服务提供者通过强制性显著标识与动态提醒保障用户知情权。“发现用户出现过度依赖、沉迷倾向时,应以弹窗等显著方式提醒用户互动内容为人工智能服务生成;连续使用超过2小时的,须以对话或弹窗提醒注意使用时长。”郑庆华强调,这不仅是法律义务,更是科技伦理的底线要求。
中国电子标准化研究院副院长范科峰则关注到数据安全与隐私保护的深化要求。办法规定,除取得用户单独同意或法律另有规定外,属于用户敏感个人信息的交互数据,不得用于模型训练。“情感交互数据深度反映用户心理与人格特质,其保护要求应高于一般个人信息,这是个人信息保护法在该场景下的深化运用。”范科峰强调。
西南政法大学人工智能法学院院长陈亮认为,从训练数据质量与合法性要求,到算法机制机理审核,再到生成内容的标识与用户便捷退出机制,办法覆盖了数据、算法与交互界面技术全链条。“这种‘组合拳’式的治理思路表明,必须通过多要素协同治理,才能系统性降低人工智能的社会化风险。”
此外,办法还创新引入人工智能沙箱安全服务平台等机制,为行业在安全可控前提下开展探索提供制度空间。对此,郑庆华评价道:“这彰显了包容审慎、分类施策的治理思路。”
注重未成年人和老年人权益保护
多位专家提醒,拟人化互动服务对未成年人和老年人来说是一把双刃剑:既能陪伴解闷,也可能用“完美关系”诱人沉迷——心智尚不成熟的未成年人容易误入歧途,辨识力减弱、孤独感更强的老年人同样防不胜防,更容易被诱导内容或情感操控所伤。
中国网络空间研究院院长王江提醒,拟人化互动服务在应对老龄化挑战、缓解孤独感方面展现出积极价值,但也带来深度沉迷、威胁生命健康等安全风险。“办法的出台恰逢其时,是应对人工智能深度社会化应用挑战的重要探索。”
针对心智未熟的未成年人与认知能力减退的老年人,办法设置了特殊保护屏障。郑庆华分析,办法严禁向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务;向不满十四周岁未成年人提供其他拟人化互动服务的,应当取得监护人同意;向老年人提供服务的,应当加强健康使用指导,以显著方式提示安全风险。他认为:“这体现了技术发展必须服务于人的心理健康与社会联结的根本立场。”
陈亮则从企业注意义务的角度进行了分析:“对未成年人,企业须实施模式切换、身份验证、定期提醒、时长限制等安全措施。对老年人,应提供更醒目的风险提示和更便捷的求助功能。这些特殊群体是技术不对称中的脆弱方,企业应当更加积极地落实立法的倾斜保护要求。”
凝聚多元合力提供“中国方案”
作为触及人类情感内核的技术形态,拟人化互动服务的治理正成为国际人工智能治理的焦点议题。
据中国信息通信研究院院长余晓晖介绍,从国际上看,美国已制定《人工智能伴侣模型法》等多部州立法,欧盟在《人工智能法》框架下推进年龄验证与使用限制。“在此背景下,我国在办法中提出动态识别、风险干预、人机交互数据保护等创新举措,是践行负责任创新理念的新探索。”
郑庆华呼吁企业主动作为:“应将‘负责任创新’转化为核心竞争力,尤其需在模型训练阶段加强数据质量管控与安全对齐,从源头防范价值观偏差与安全风险。”
郑庆华表示,同济大学正在推进人工智能伦理、算法治理与安全测评研究,重点攻坚用户极端情境识别、情感边界引导、未成年人身份识别等关键技术。“高校与科研机构应加快研制相关国家标准,将办法要求转化为可操作、可检测的标准规范。”郑庆华建议。
多位专家一致认为,从人机价值对齐的前瞻引领到技术全链条的系统规制,从特殊群体的倾斜保护到产业生态的多元共治,办法的出台为全球应对人机情感交互挑战贡献了“中国方案”。
《光明日报》(2026年04月20日 08版)
