埃隆·马斯克 (Elon Musk) 拆除 OpenAI 的法律努力可能取决于其营利性子公司如何增强或削弱前沿实验室的创始使命,即确保人类从通用人工智能中受益。 周四,奥克兰联邦法院听取了一名前员工兼董事会成员的听证会,称该公司将人工智能产品推向市场的努力损害了其对人工智能安全的承诺。 Rosie Campbell 于 2021 年加入该公司的 AGI 准备团队,并于 2024 年团队解散后离开 OpenAI。另一个注重安全的团队,Super Alignment 团队,也在同一时期被关闭。 “当我加入时,人们谈论通用人工智能和安全问题非常注重研究,而且很常见,”她作证说。 “随着时间的推移,它变得更像一个以产品为中心的组织。” 在交叉询问中,坎贝尔承认,实验室实现构建通用人工智能的目标可能需要大量资金,但她表示,在没有适当安全措施的情况下创建超级智能计算机模型不符合她最初加入的组织的使命。 坎贝尔指出,微软在印度部署了该公司的 GPT-4 模型版本,但该模型尚未得到该公司部署安全委员会 (DSB) 的评估。她说,该模型本身并没有带来巨大的风险,但该公司需要“随着技术变得更加强大,树立强有力的先例。我们希望拥有良好的安全流程,我们知道这些流程得到了可靠的遵循。” OpenAI 的律师还让坎贝尔承认,在她的“推测性意见”中,OpenAI 的安全方法优于 xAI,xAI 是马斯克创立的人工智能公司,今年早些时候被 SpaceX 收购。 OpenAI 发布了对其模型的评估,并公开分享了安全框架,但该公司拒绝对其当前 AGI 调整方法发表评论。迪伦·斯坎迪纳罗 (Dylan Scandinaro) 是其现任防备负责人,于 2 月份从 Anthropic 聘用。奥特曼表示,这次雇用会让他“今晚睡得更好”。 然而,GPT-4 在印度的部署是导致 OpenAI 非营利董事会在 2023 年短暂解雇首席执行官 Sam Altman 的危险信号之一。该事件发生在包括时任首席科学家 Ilya Sutskever 和时任首席技术官 Mira Murati 在内的员工抱怨 Altman 厌恶冲突的管理风格之后。当时的董事会成员塔莎·麦考利 (Tasha McCauley) 作证称,人们担心奥特曼没有足够积极地与董事会沟通,使其不寻常的结构能够发挥作用。 麦考利还讨论了广泛报道的奥特曼误导董事会的模式。值得注意的是,Altman 向另一位董事会成员撒谎,称 McCauley 打算罢免第三位董事会成员 Helen Toner,后者发表了一份白皮书,其中包含一些对 OpenAI 安全政策的隐含批评。 Altman 也未能向董事会通报公开推出 ChatGPT 的决定,成员们对他没有披露潜在的利益冲突感到担忧。 “我们是一个非营利性董事会,我们的任务是能够监督我们下面的营利性组织,”麦考利告诉法庭。 “我们做到这一点的主要方式是受到质疑。我们根本没有高度的信心来相信传达给我们的信息可以让我们以明智的方式做出决定。” 然而,解雇奥特曼的决定是在向公司员工发出收购要约的同时做出的。麦考利表示,当 OpenAI 的员工开始站在 Altman 一边,而微软努力恢复现状时,董事会最终改变了方向,成员反对 Altman 下台。 非营利组织董事会显然未能影响营利性组织,这直接与马斯克的案例有关,即 OpenAI 从研究组织转变为世界上最大的私营公司之一,打破了该组织创始人的默示协议。 哥伦比亚大学法学院前院长戴维·施泽尔(David Schizer)受到马斯克团队的资助,担任专家证人,他也表达了麦考利的担忧。 “OpenAI 强调其使命的关键部分是安全,他们将安全置于利润之上,”Schizer 说。 “其中一部分是认真对待安全规则,如果某件事需要接受安全审查,那就需要发生。重要的是流程问题。” 由于人工智能已经深深嵌入到营利性公司中,因此这个问题远远超出了单个实验室的范围。麦考利表示,OpenAI 内部治理的失败应该成为政府对先进人工智能采取更强有力监管的一个理由——“如果这一切都归结为一位首席执行官做出这些决定,而我们的利益攸关公共利益,那就非常不理想了。”