OpenAI 正在为 ChatGPT 推出一项可选的安全功能,允许成年用户为心理健康和安全问题分配紧急联系人。如果 OpenAI 检测到某人可能与聊天机器人讨论过自残或自杀等话题,则被指定为“可信联系人”的朋友、家人或护理人员将收到通知。 OpenAI 在其声明中表示:“Trusted Contact 的设计围绕一个简单且经过专家验证的前提:当某人可能陷入危机时,与他们认识和信任的人联系可以产生有意义的变化。” “除了 ChatGPT 中已有的本地化帮助热线之外,它还提供了另一层支持。” 可信联系人功能是可选择加入的。任何成年 ChatGPT 用户都可以通过在其 ChatGPT 帐户设置中添加其他成年人(全球 18 岁以上或韩国 19 岁以上)的联系方式来启用它。可信联系人必须在收到请求后一周内接受邀请。用户可以在设置中删除或编辑自己选择的联系人,可信联系人也可以随时选择删除自己。 OpenAI 表示,该通知是“有意限制的”,不会与可信联系人分享聊天详细信息或记录。如果 OpenAI 的自动化系统检测到用户正在谈论伤害自己,ChatGPT 将鼓励用户向其可信联系人寻求帮助,并让他们知道该联系人可能会收到通知。据 OpenAI 称,“由经过特殊培训的人员组成的小团队”将审查情况,如果对话被确定表明存在严重的安全问题,ChatGPT 将向可信联系人发送简短的电子邮件、短信或应用内 ChatGPT 通知。 这是建立在紧急联系功能的基础上的,该功能是在 9 月份与 ChatGPT 的家长控制一起推出的,当时一名 16 岁的青少年在向 ChatGPT 倾诉了几个月后结束了自己的生命。 Meta 还推出了一项类似的功能,如果孩子“反复”在 Instagram 上搜索自残主题,就会向家长发出警报。