在人工智能技术向高度拟人化迈进的关键节点,我国监管层再次释放了强化治理的明确信号。近日,国家网信办等五部门联合公布了《人工智能拟人化互动服务管理暂验办法》,这一举措不仅是对现有AI监管框架的有力补充,更是针对生成式AI在情感模拟、身份伪装等领域潜在风险的精准治理。
随着大模型技术在语音、视觉及交互逻辑上的深度演进,AI正逐渐具备“拟人”的表象。然而,这种技术的“拟人化”特征也伴随着巨大的伦理挑战:如何防止AI通过模拟人类情感进行欺诈?如何界定虚拟数字人与真实身份的边界?新规通过确立明确的标识义务与准入标准,试图在技术创新的“加速器”与社会安全的“刹车片”之间寻找动态平衡,确保用户能够清晰辨别交互对象的真实属性。
观察当前的科技与金融生态,可以发现一种监管逻辑的协同性。上交所近期针对证券异常交易行为采取的自律监管措施,以及对高溢价基金和退市风险股票的严密监控,与互联网领域的算法治理互为表里,共同构成了对市场秩序的立体化守护。这种监管环境的升级,正倒逼科技企业在追求技术高度的同时,必须重新审视其合规成本与社会责任。
从欣旺达深度融入全球新能源供应链的产业实践,到GitHub上引发争议的AI技能包,再到利用AI进行内容生产的商业化尝试,技术应用的边界正在被重新划定。对于开发者与投资者而言,理解并适应这一从“野蛮生长”转向“规范治理”的新常态,将是未来在人工智能时代生存与发展的核心竞争力。


🔗 来源:36氪 (36Kr)
推荐意见