在人工智能与人类情感交织的边界,如何确保对话的安全性与同理心,已成为大模型发展的核心命题。近日,OpenAI 披露了其在提升 ChatGPT 处理敏感对话能力方面的重大进展。通过与全球超过 170 位心理健康专家进行深度协作,OpenAI 正在重塑 AI 在面对用户心理困境时的响应逻辑。
此次优化的核心在于增强模型对“痛苦信号”的识别能力。通过引入专业医学与心理学领域的知识框架,ChatGPT 现在能够更敏锐地捕捉用户言语中的危机征兆,并以更具同理心的态度进行回应。更重要的是,该系统现已具备更强的引导能力,能够将处于危机中的用户有效地导向现实世界的专业支持资源。
技术层面的改进成效显著:在处理敏感话题时,ChatGPT 的不安全响应率最高降低了 80%。这不仅是一次技术参数的迭代,更是 AI 安全治理从单纯的“规则过滤”向“深度理解与人文关怀”的一次范式转移。OpenAI 的这一举措,标志着生成式 AI 正试图在技术效率与人类情感安全之间,寻找一个更为稳健且可持续的平衡点。
🔗 来源:OpenAI
推荐意见