周四,OpenAI 宣布了一项名为“可信联系人”的新功能,旨在在对话中表达自残想法时向可信第三方发出警报。该功能允许成年 ChatGPT 用户指定另一个人作为其帐户中的可信联系人,例如朋友或家人。如果对话可能演变为自残,OpenAI 现在会鼓励用户联系该联系人。它还会向联系人发送自动警报,鼓励他们与用户联系。 OpenAI 面临着一系列来自与其聊天机器人交谈后自杀者家属的诉讼。在许多情况下,家属表示 ChatGPT 鼓励他们的亲人自杀,甚至帮助他们策划自杀。 OpenAI 目前使用自动化和人工审查相结合的方式来处理潜在的有害事件。某些对话触发器会向公司系统发出自杀意念的警报,然后系统将信息转发给人类安全团队。该公司声称,每次收到此类通知时,都会由专人审查该事件。该公司表示:“我们努力在一小时内审查这些安全通知。” 如果 OpenAI 的内部团队认为这种情况存在严重的安全风险,ChatGPT 就会通过电子邮件、短信或应用内通知向可信联系人发送警报。该警报旨在简短并鼓励联系人与相关人员联系。该公司表示,它不包含有关正在讨论的内容的详细信息,作为保护用户隐私的一种手段。 “可信联系人”功能是继该公司去年 9 月推出的保障措施之后推出的,该保障措施赋予家长对青少年账户进行一定监督的权力,包括接收安全通知,旨在在 OpenAI 的系统认为他们的孩子面临“严重安全风险”时提醒家长。一段时间以来,ChatGPT 还提供了自动警报功能,以便在对话趋势转向自残话题时寻求专业健康服务。 至关重要的是,Trust Contact 是可选的,即使在特定帐户上激活了保护,任何用户都可以拥有多个 ChatGPT 帐户。 OpenAI 的家长控制也是可选的,也存在类似的限制。 该公司在公告中写道:“Trusted Contact 是 OpenAI 更广泛努力的一部分,旨在构建人工智能系统,帮助人们度过困难时刻。” “我们将继续与临床医生、研究人员和政策制定者合作,改善人工智能系统在人们可能遇到痛苦时的反应方式。”