OpenAI为ChatGPT新增心理健康防护机制

某机构宣布为ChatGPT部署心理健康防护机制,通过用户引导式对话替代直接建议,并开发情绪困扰检测功能。新特性基于多国医师合作开发,包含会话评估算法和专家咨询组,旨在减少AI交互对心理健康的潜在风险。

某机构宣布正在为ChatGPT实施一系列新的心理健康防护措施,同时发布了新的开源模型,并预计在未来几周内推出GPT-5更新。

新防护机制旨在改变聊天机器人在敏感话题上与用户的互动方式。ChatGPT将不再对高风险个人问题(如关系建议)提供直接答案,而是通过提问帮助用户自行思考问题,扮演更辅助性的角色。此外,系统将监控用户参与时长,并在长时间连续会话时提示休息。

某机构还正在开发ChatGPT检测心理或情绪困扰迹象的能力。当检测到此类迹象时,聊天机器人将引导用户获取基于证据的支持资源。这些功能的实施源于多起报告显示,用户在与AI聊天机器人广泛交互后出现心理健康问题。

据某机构称,这些新防护机制是与来自30多个国家的90多名医师合作开发的,包括精神病学和儿科专家。这项工作帮助创建了针对复杂对话的定制评估方法。该机构还正与研究人员合作微调检测用户异常行为的算法,并建立由心理健康、青年发展及人机交互领域专家组成的咨询组以进一步提升安全性。

图片来源:某机构
标签:GPT-5,某机构

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计