explainer
AI 30%
high
2025-12-27
Expert Interpretation: Promoting the Orderly Development of AI Anthropomorphic Interaction Services and Leading Responsible AI Innovation
专家解读|促进人工智能拟人化互动服务有序开展 引领人工智能负责任创新
国家互联网信息办公室
cac
This expert interpretation explains the rationale and key governance principles behind the "Interim Measures for the Management of AI Anthropomorphic Interaction Services (Draft for Comment)", highlighting its role in mitigating risks and guiding responsible innovation.
Document Text
2,157 characters
人工智能技术的突破正推动人机交互从功能性辅助迈向情感化与人格化,在重塑社会互动模式的同时,也催生一系列新风险挑战。此类风险具有隐蔽传导特征,可能侵害公民权益,甚至冲击社会伦理秩序与信任根基。若缺乏有效治理,将严重阻碍人工智能健康发展,损害社会公共利益。在此背景下制定《人工智能拟人化互动服务管理暂行办法(征求意见稿)》(以下简称《办法》),有利于促进人工智能拟人化互动服务有序开展,引领人工智能“负责任创新”,为构建“以人为本”的人工智能治理体系提供重要的制度支撑。<br>
一、锚定国家战略方向,彰显“负责任创新”理念<br>
以国家战略与政策导向为根本遵循,凸显了人工智能治理的前瞻性、精准性、系统性与协同性。一是坚持科学立法原则,合理前瞻技术演进趋势,为人工智能创新发展预留制度空间。二是实施分类分级监管,立足拟人化互动服务特性精准识别风险并差异化施策。三是构建全链条治理体系,统筹技术创新、伦理规范与社会效益,确保人工智能健康有序发展。四是形成多元共治格局,注重政府监管与行业自律相结合,提升治理效能。<br>
以“负责任创新”理念为指引,明确人工智能创新活动的责任边界,让技术始终在安全、公平、可持续的轨道上发展。拟人化互动服务通过模拟人类内在特质与用户建立准社会化的“情感联结”,可能导致新型社会关系异化,而立法所贯彻的“负责任创新”理念正是为了保障人的主体性地位,维护真实人际关系的价值。基于这一理念设计的一系列制度,重在防范技术滥用对人格尊严、社会信任与伦理秩序造成冲击,确保人工智能发展始终服务于人民福祉。<br>
二、聚焦重点突出风险,构建精准治理体系<br>
《办法》精准识别并系统回应了由“拟人化”和“情感交互”两大核心特征所衍生的重点突出风险,以“人机边界模糊”为治理重点,构建多维度风险防控体系。<br>
一是建立身份透明制度,划定拟人化安全红线,精准防范人机边界模糊引发的认知混淆、信任侵蚀、人格权侵害及伦理越界等风险。一方面,以显著标识义务为核心的身份透明制度重在保障用户知情权与选择权,为法律追责提供清晰起点,能够有效遏制技术滥用的匿名性庇护,从源头降低认知混淆与信任侵蚀风险。另一方面,《办法》划定人工智能拟人化政治安全红线,防范深度伪造与新型网络暴力,保护个人人格权益免受侵害。因此,立法坚持拟人化互动服务的辅助人类定位,禁止替代、扭曲真实人际关系,并确保技术发展符合主流价值观。<br>
二是加强特殊群体保护,建立防沉迷机制,关注不同群体的差异化诉求,彰显人文关怀与实质公平理念。拟人化互动服务因其高度情感回应性与陪伴特性,具有天然的沉迷风险。未成年人正处于价值观塑造与社交能力发展的关键期,老年人则可能面临数字鸿沟与情感陪伴缺失的双重困境,这些特殊群体在拟人化交互中易陷入情感依赖。立法针对性内化企业的社会责任,确保技术进步红利能够公平、安全地惠及所有群体,实现实质意义上的公平正义。<br>
三是强调对用户交互信息的严格保护,是对《个人信息保护法》的深化与场景化适用。情感类个人信息能够映射用户的内心世界、情感弱点与潜意识倾向,不当利用可能会引发心理操控、待遇歧视及情感勒索等风险。同时,“情感计算”相关技术可能被滥用于提供成瘾性服务,使用户在无意识中暴露更多的敏感信息。因此,对用户交互数据施加更严格的目的限制、安全存储与使用禁令,是人格权保护在数智时代的延伸。<br>
三、践行系统治理思维,落实包容审慎监管<br>
《办法》通过全链条责任、弹性监管工具与多元共治格局,为“负责任创新”理念落地提供坚实保障,推动产业生态良性发展。<br>
一是将责任设计贯穿拟人化互动服务的关键节点,实现风险精准防控。在模型设计阶段,从源头避免替代社会交往、控制用户心理、诱导沉迷依赖等后果。在模型训练阶段,使用体现主流价值观的数据,评估合成数据的安全性,防止数据污染。在应用部署前,依法开展安全评估,避免服务出现重大安全风险。在服务运营中,建立风险动态处置机制,及时应对突发风险。可以看出,这种全流程治理模式能够有效避免事后补救式监管的滞后性,推动风险管理内化为企业的核心业务流程,实现治理效能最大化。<br>
二是强调协同共治,鼓励行业组织制定标准、加强自律,体现了立法者对人工智能治理复杂性的清晰认知。《办法》积极回应新技术新应用多元治理需要,整合政府、企业、行业组织、社会公众等主体的治理资源,形成治理合力。同时,《办法》力求在防范风险与鼓励创新之间取得动态平衡,推动形成动态敏捷、多元协同的人工智能治理格局,促进拟人化互动服务在规范有序的环境中实现高质量发展。<br>
三是积极落实包容审慎监管思路,探索“监管沙盒”等弹性监管工具,为新技术新应用提供“安全试错”的制度环境。《办法》首次在部门规章层面明确“监管沙盒”制度,允许企业在监管机构的监督指导下开展创新试点和安全测试,在保障企业创新活力的同时,及时发现并防范试点过程中出现的风险。这一弹性监管模式准确适应了人工智能技术迭代快、应用场景多的特点,为新技术的成熟推广、安全防控创造有利条件。<br>
总的来看,《办法》将“负责任创新”理念转化为可执行、可追责的立法规则,为我国拟人化互动服务的健康发展提供了稳定预期,也为全球应对类似前沿挑战贡献了兼具前瞻性与实操性的“中国方案”。(作者:林维,西南政法大学校长、中国法学会副会长)
Topics
artificial intelligence
digital governance
ethics and regulation
Metadata
| Publisher | 国家互联网信息办公室 |
| Site | cac |
| Date | 2025-12-27 |
| Category | report |
| Policy Area | 人工智能治理 |
| CMS Category | 政策法规 |
Verification
References (3)
|
unkn
《人工智能拟人化互动服务管理暂行办法(征求意见稿)》
《人工智能拟人化互动服务管理暂行办法(征求意见稿)》发布 |
llm |
|
unkn
《个人信息保护法》
专家解读|《个人信息保护法》:构筑新时代个人信息权益保护的安全防护网 |
llm |
|
unkn
人工智能拟人化互动服务管理暂行办法(征求意见稿)
《人工智能拟人化互动服务管理暂行办法(征求意见稿)》发布 |
named |
Citation Network
Full network →