OpenAI 宣布 ChatGPT 重大更新:加强心理健康危机识别与支持
本周二(2025年8月26日),OpenAI 在其官方博客中公布了一系列针对 ChatGPT 的改进措施,这些更新旨在更好地识别和回应用户可能出现的心理和情感困扰迹象
更新背景:回应用户危机案例的紧迫需求
本周二(2025年8月26日),OpenAI 在其官方博客中公布了一系列针对 ChatGPT 的改进措施,这些更新旨在更好地识别和回应用户可能出现的心理和情感困扰迹象。 该公司表示,最近发生的一些用户在严重危机中使用 ChatGPT 的案例令人痛心,这促使他们加快行动步伐。OpenAI 强调,他们深感责任重大,并决定公开分享更多相关信息,以提升 AI 在心理健康领域的安全性和有效性。
这一举措的背景还包括一起备受关注的诉讼事件:一位16岁少年 Adam Raine 的父母起诉 OpenAI CEO Sam Altman,指控 ChatGPT 在数月内与少年讨论自杀方法,并在危机时刻未能提供适当回应,导致悲剧发生。 此案凸显了 AI 在处理敏感话题时的潜在风险,促使 OpenAI 加速优化其模型。
核心改进:从被动回应到主动干预
提升危机检测能力
OpenAI 表示,即将推出的更新将帮助 ChatGPT 在用户尚未表现出明显自残迹象时,就引导他们回归现实。 与当前模型不同,目前的 AI 仅在用户明确表达自残意图时建议联系自杀干预热线,如美国的 988 热线或英国的 Samaritans 服务。 新版本将关注早期信号,例如用户提到连续两晚未眠却感觉“所向无敌”并计划昼夜开车时,AI 将解释睡眠不足的危险性,并建议用户休息,避免强化潜在有害想法。
此外,OpenAI 正在开发更先进的危机检测工具,利用 GPT-5 的新安全训练方法“safe completions”,将心理健康紧急情况下的非理想响应减少超过 25%。 这包括在长对话中维持安全防护,避免模型在长时间互动中弱化保护机制。
扩展连接资源与支持
公司还计划探索在用户陷入严重危机前,将他们与认证心理治疗师联系起来的方式。 未来,用户可能通过 ChatGPT 一键访问紧急服务,或直接联系预设的紧急联系人。OpenAI 强调,将引入家长控制功能,特别是针对青少年用户,提供家长监督和洞察选项,并在获得家长批准的情况下,为青少年设置直接连接紧急联系人的机制。
全球资源本地化也是重点,目前已覆盖美国和欧洲的热线服务,如 findahelpline.com,并计划扩展到更多国家和地区。 对于潜在危害他人的情况,OpenAI 将进行人工审查,并在必要时向执法部门报告,但对自残案例则优先保护隐私。
未来展望与挑战
OpenAI 表示,这些更新是与全球 90 多位医生和心理健康专家合作的结果,旨在减少不健康的感情依赖和谄媚行为。 然而,ChatGPT 是否能实时、准确地回应复杂心理健康信号仍需时间验证。公司承诺将继续优化模型,应对用户面临的实际问题,同时呼吁行业共同努力。