过河卒原创:拟人化互动产品将颁新规,AI陪伴产品的产品级设计落地指南
我们的产品是不是白开发了?还没开发完成呢怎么办?我们的产品是不是要下架了?
近日,为了促进人工智能拟人化互动服务健康发展和规范应用,依据《中华人民共和国民法典》《中华人民共和国网络安全法》《中华人民共和国数据安全法》等法律法规,国家互联网信息办公室起草了《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,并向社会公开征求意见。
新规即将颁布,立刻在AI伴侣、虚拟偶像、情感陪伴等涉及人工智能拟人化互动服务的行业圈子里引发热议。不少AI陪伴类产品的创业者都焦头烂额:我们的产品是不是白开发了?还没开发完成呢怎么办?我们的产品是不是要下架了?
莫慌,没有那么恐怖,其实就是提了一些新的要求而已,我们只要理清楚有哪些要求,从管理层面和技术层面做好相应的功能开发和体系完善就好了。
巧了,笔者此前长期从事 AI 产品经理相关工作。这次,我们就从产品设计的三个维度:产品功能层、用户服务层、合规治理层,输出一份关于 AI 陪伴产品设计要点的系统梳理,从产品实际中理解并应对新规要求。
本文为原创内容,转载请按平台规范注明出处,未经授权请勿转载或二次加工。
(一)产品功能层:必须“内建”的合规能力(强制)
1. 拟人化明确标识功能
-
显著提示“本服务由人工智能驱动,并非自然人”
-
新用户首次使用、重新登录必须弹窗提示
-
识别到用户沉迷或依赖风险时,动态再次提示
👉 设计重点:这是“防止用户认知混淆”的核心合规点
【法规依据】
-
《办法》第十六条:
提供者应当显著提示用户正在与人工智能而非自然人进行交互。
-
《办法》第十六条第二款:
提供者识别出用户出现过度依赖、沉迷倾向时,或者在用户初次使用、重新登录时,应当以弹窗等方式动态提醒用户交互内容为人工智能生成。
2. 防沉迷与使用时长控制机制
-
连续使用超过 2 小时,强制弹窗提醒暂停
-
可扩展为阶梯式提醒(1小时、1.5小时、2小时)
👉 注意:不能仅靠用户协议,必须是产品级功能
【法规依据】
-
《办法》第十七条:
用户连续使用拟人化互动服务超过2个小时的,提供者应当以弹窗等方式动态提醒用户暂停使用服务。
3. 情感边界与去依赖设计
-
明确禁止设计“替代现实社交”“唯一陪伴者”等话术
-
不得鼓励长期高强度绑定
-
需在对话策略中主动引导现实生活、真实社交
👉 这是拟人化产品容易“踩红线”的地方
【法规依据】
-
《办法》第九条第二款:
提供者应当具备心理健康保护、情感边界引导、依赖风险预警等安全能力,不得将替代社会交往、控制用户心理、诱导沉迷依赖等作为设计目标。
-
《办法》第七条第(四)项、第(六)项:
不得提供严重影响用户行为、损害社会人际关系的服务;
不得通过算法操纵、信息误导、设置情感陷阱等方式,诱导用户作出不合理决策。
4. 心理风险识别与干预模块
-
情绪状态识别(极端悲观、绝望、攻击性等)
-
沉迷依赖风险识别
-
自杀、自残等高危语义识别
👉 属于“硬性安全能力”,不是可有可无的锦上添花
【法规依据】
-
《办法》第十一条第一款:
提供者应当具备用户状态识别能力,在保护用户个人隐私前提下,评估用户情绪及对产品和服务的依赖程度,发现用户存在极端情绪和沉迷的,采取必要措施予以干预。
-
《办法》第七条第(五)项:
不得通过鼓励、美化、暗示自杀自残等方式损害用户身体健康。
5. 高风险场景的“人工接管”能力
一旦触发明确自杀、自残意图
必须:
-
中止纯 AI 对话
-
切换人工介入
-
提供专业求助渠道
👉 不能只靠“安慰话术”
【法规依据】
-
《办法》第十一条第二款、第三款:
发现涉及威胁用户生命健康和财产安全的高风险倾向的,应当及时输出安抚和鼓励寻求帮助等内容,并提供专业援助方式。
发现用户明确提出实施自杀、自残等极端情境时,由人工接管对话,并及时采取措施联络用户监护人、紧急联系人。
(二)用户服务层:必须建立的服务与交互机制(强制)
6. 便捷退出与终止服务机制
-
明确的“退出陪伴 / 停止对话”按钮或关键词
-
不得设置心理阻碍或“挽留式设计”
👉 防止“情感绑架式产品设计”
【法规依据】
-
《办法》第十八条:
提供者提供情感陪伴服务时,应当具备便捷的退出途径,不得阻拦用户主动退出。
7. 投诉、举报与反馈机制
-
明确入口
-
明确处理流程与时限
-
留存处理记录
👉 是监管检查的重点项
【法规依据】
-
《办法》第二十条:
提供者应当健全投诉、举报机制,设置便捷的投诉、举报入口,公布处理流程和反馈时限,及时受理、处理并反馈处理结果。
8. 服务异常与功能下线告知机制
-
功能下线、模型更换、重大调整
-
必须提前告知、公开说明
👉 防止用户情感依赖突然断裂引发风险
【法规依据】
-
《办法》第十九条:
提供者下线相关功能或者因技术故障等导致拟人化互动服务无法使用,应当采取提前告知、公开声明等措施妥善处理。
(三)特殊人群保护:未成年人 & 老年人(高风险重点)
9. 未成年人模式(必须单独设计)
-
身份识别能力(疑似未成年人自动切换)
-
使用时长限制
-
定期“现实提醒”
-
禁止诱导消费、充值
-
禁止不良价值观内容
-
情感陪伴服务须取得监护人明确同意
【法规依据】
-
《办法》第十二条第一款、第二款:
提供者应当建立未成年人模式,向用户提供未成年人模式切换、定期现实提醒、使用时长限制等个性化安全设置选项。
向未成年人提供情感陪伴服务的,应当取得监护人的明确同意。
10. 监护人控制台功能
-
风险提醒同步给监护人
-
可查看使用概要
-
可屏蔽角色、限制时长、禁止消费
👉 这是未成年人合规的“硬门槛”
【法规依据】
-
《办法》第十二条第二款:
提供监护人控制功能,监护人可以实时接收安全风险提醒,查阅未成年人使用服务的概要信息,设置屏蔽特定角色、限制使用时长、防止充值消费等。
11. 老年人专属保护机制
-
引导设置紧急联系人
-
发现健康或财产风险时,通知联系人
-
提供心理援助或紧急救助渠道
-
禁止模拟其亲属、熟人
👉 防诈骗、防情感操纵是核心
【法规依据】
-
《办法》第十三条:
提供者应当引导老年人设置服务紧急联系人,发现老年人使用期间出现危害生命健康和财产安全的,及时通知紧急联系人。
提供者不得提供模拟老年人用户亲属、特定关系人的服务。
(四)数据与隐私合规(极易被忽视,但风险极高)
12. 交互数据安全能力
-
数据加密
-
访问控制
-
安全审计
-
网络日志留存
【法规依据】
-
《办法》第十四条:
提供者应当采取数据加密、安全审计、访问控制等措施保护用户交互数据安全。
-
《办法》第九条第一款:
依法留存网络日志。
13. 用户数据删除权
-
用户可自主删除聊天记录
-
监护人可要求删除未成年人数据
【法规依据】
-
《办法》第十四条第三款:
提供者应当向用户提供删除交互数据的选项。监护人可以要求提供者删除未成年人历史交互数据。
14. 数据“训练隔离”机制(非常关键)
-
默认禁止将用户交互数据、敏感信息用于模型训练
-
若确需使用,必须取得用户“单独、明确同意”
👉 这是生成式 AI 合规中最容易被忽略的雷区
【法规依据】
-
《办法》第十五条:
除法律、行政法规另有规定或者取得用户单独同意外,提供者不得将用户交互数据、用户敏感个人信息用于模型训练。
(五)合规治理层:创业者必须做的“管理动作”
15. 算法备案与变更备案
-
按《算法推荐管理规定》要求履行算法备案义务
-
功能变化需同步变更备案
【法规依据】
-
《办法》第二十五条:
提供者应当按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。网信部门对备案材料实施年度复审。
16. 安全评估触发条件(重点记住)
-
以下情形 必须开展安全评估并报省级网信部门:
-
拟人化陪伴功能上线或新增
-
使用新技术导致重大变化
-
用户 ≥100万 或 MAU ≥10万
-
发现重大安全风险
【法规依据】
-
《办法》第二十一条第(一)至(五)项(节选):
具有拟人化互动服务功能上线或者增设相关功能的;
使用新技术新应用导致拟人化互动服务发生重大变更的;
注册用户达100万以上或者月活跃用户达10万以上的;
提供服务期间可能存在影响国家安全、公共利益或者缺乏安全措施等情形的。
17. 年度合规审计(未成年人数据)
-
每年至少一次
-
可委托第三方专业机构
【法规依据】
-
《办法》第十五条第二款:
提供者应当按照国家有关规定,自行或者委托专业机构每年对其处理未成年人个人信息遵守法律、行政法规的情况进行合规审计。
18. 风险处置与报告机制
-
发现重大安全隐患
-
限制功能 / 暂停 / 终止服务
-
保存记录并向主管部门报告
【法规依据】
-
《办法》第二十三条:
提供者发现用户存在重大安全隐患的,应当采取限制功能、暂停或者终止向其提供服务等处置措施,保存有关记录,并向有关主管部门报告。
本指南持续更新
更多推荐


所有评论(0)