随着生成式人工智能技术的爆发式增长,拟人化互动服务(如AI数字人、智能陪伴助手等)正以前所未有的速度渗透进大众生活。然而,随之而来的数据隐私泄露与内容安全风险也日益凸显。近日,国家互联网信息办公室、国家发展改革委、工业和信息化部、公安部、市场监管总局联合发布了《人工智能拟人化互动服务管理暂行办法》,为这一新兴领域的规范化发展划定了清晰的法律红线。
该《办法》明确了“以人为本、智能向善”的核心理念,强调在鼓励技术创新与推动产业应用的同时,必须坚持发展与安全并重、创新与依法治理相结合的原则。自2026年7月15日起,拟人化互动服务将正式进入受监管的规范化时代。其中,最受业界关注的条款之一是明确规定:拟人化互动服务提供者不得向第三方提供用户的交互数据,旨在从源头上切断数据滥用的路径,构建起一道严密的个人隐私防护墙。
在内容安全与社会责任层面,《办法》设立了不可逾越的底线,严禁利用拟人化服务生成危害国家安全、损害国家荣誉及利益,或煽动颠覆国家政权等违法违规内容。同时,监管部门将重点强化对未成年人及老年人等特定群体的权益保护,要求服务提供者履行严格的安全管理义务,确保AI交互过程中的个人信息安全与伦理合规。
值得注意的是,此次监管政策并非“一刀切”式的限制,而是采取了“包容审慎”和“分类分级”的监管策略。政策明确支持技术研发创新,鼓励在文化传播、适老陪伴等具有显著社会价值的领域有序拓展应用。此外,通过建立安全评估、算法备案以及推动人工智能沙箱安全服务平台建设等制度,国家正试图构建一个既能激发技术活力,又能实现依法治理的良性产业生态体系。


🔗 来源:36氪 (36Kr)
推荐意见