转译:ChatGPT 可以交谈,但 OpenAI 员工却不能
OpenAI 员工签署了极其严格的离职协议,其中包括保密和不诋毁条款。它禁止他们终身批评他们的前雇主。甚至承认 NDA 的存在也是违反协议的。
***
周一,OpenAI 宣布了一条令人振奋的新产品消息:ChatGPT 现在可以像人类一样交谈。
它有一个愉快的、略带讨好意味的女性声音,听起来令人印象深刻地不像机器人。如果你看过 2013 年斯派克·琼斯执导的电影《她》,你会觉得这个声音有点熟悉。OpenAI 的首席执行官 Sam Altman 在推特上提到这部电影中的 AI 助手,由斯嘉丽·约翰逊配音。
但 ChatGPT 4o 的产品发布很快就被来自 OpenAI 的更大新闻所掩盖:公司联合创始人兼首席科学家 Ilya Sutskever 辞职,他是超级对齐团队的领导者之一,以及他的联合团队领导 Jan Leike(去年我们将其列入 Future Perfect 50 名单)。
他们的辞职并不完全令人惊讶。Sutskever 曾参与去年导致 Altman 暂时被解雇的董事会叛乱,虽然 CEO 很快重返岗位。Sutskever 公开对自己的行为表示遗憾,并支持 Altman 的回归,但自那以后他基本上不再出现在公司,即使在 OpenAI 的政策、对齐和安全团队的其他成员陆续离开。
但真正引起猜测的是前员工的沉默。Sutskever 发布了一条典型的辞职消息,说“我相信 OpenAI 会构建出既安全又有益的 AGI……我对未来感到兴奋。”Leike 的辞职消息仅仅是:“我辞职了。”经过几天的猜测,他在周五早上进一步解释说,他担心 OpenAI 已经偏离了以安全为中心的文化。
立即出现了许多问题:他们是被迫离开的吗?这是去年秋天 Altman 短暂被解雇的延迟后果吗?他们是因为某个秘密而危险的新 OpenAI 项目而抗议辞职的吗?由于没有一个曾经在 OpenAI 工作过的人在说话,猜测填补了这个空白。
事实证明,这有一个非常明确的原因。我看到了包含前 OpenAI 员工极其严格的离职协议,其中包括保密和不诋毁条款。它禁止他们终身批评他们的前雇主。甚至承认 NDA 的存在也是违反协议的。
如果离职员工拒绝签署文件,或违反文件,他们可能会失去在公司期间获得的所有归属权益,这可能价值数百万美元。一位前员工 Daniel Kokotajlo 公开确认说,他为了在不签署文件的情况下辞职,不得不放弃可能会变成巨额财富的股权。
尽管在竞争激烈的硅谷中,保密协议并不罕见,但将员工已经归属的股权置于拒绝或违反协议的风险中却很不寻常。对于像 OpenAI 这样的初创公司员工来说,股权是一种至关重要的补偿形式,可能远远超过他们的薪水。威胁这种可能改变生活的钱是一种非常有效的让前员工保持沉默的方式。(OpenAI 没有回应置评请求。)
对于一个最初宣称自己是_Open_AI 的公司——即在其使命声明中承诺以透明和负责任的方式构建强大系统的公司来说,这一切都充满了讽刺意味。
OpenAI 早已放弃了开源其模型的想法,理由是出于安全考虑。但现在,它失去了其安全团队中最资深和最受尊敬的成员,这应该引发一些怀疑,即 OpenAI 变得如此封闭是否真的是出于安全原因。
终极科技公司
OpenAI 在科技和政策圈中占据了独特的地位。他们的发布,从 DALL-E 到 ChatGPT,通常都非常酷,但单靠这些并不足以吸引公司常常被讨论时的近乎宗教的狂热。
OpenAI 与众不同的是其使命的雄心:“确保通用人工智能(AGI,Artificial General Intelligence)——比人类更聪明的 AI 系统——造福全人类。”许多员工相信这一目标触手可及;也许只需再十年(甚至更短时间)——和几万亿美元——公司将成功开发出使大多数人类劳动过时的 AI 系统。
正如公司长期以来所说的那样,这既充满风险又令人兴奋。
“超级智能(Superintelligence)将是人类发明的最有影响力的技术,可以帮助我们解决世界上许多最重要的问题,”OpenAI 超级对齐团队的招聘页面声明。“但超级智能的巨大力量也可能非常危险,可能导致人类失去控制甚至灭绝。虽然超级智能现在看起来还很遥远,但我们相信它可能在本十年到来。”
自然,如果在我们有生之年实现人工超级智能是可能的(专家们对此意见不一),这将对人类产生巨大的影响。OpenAI 历来将自己定位为一个负责任的行为者,试图超越单纯的商业激励,造福全人类。即使这需要放慢发展,错失利润机会,或允许外部监督,他们也愿意这样做。
“我们不认为 AGI 应该只是硅谷的事情,”OpenAI 联合创始人 Greg Brockman 在 2019 年告诉我,在更为平静的 ChatGPT 之前的日子里。“我们在谈论改变世界的技术。所以如何让合适的代表和治理机制进入其中?这实际上是我们非常关注的一个重点,也是我们真的想要广泛参与的事情。”
OpenAI 独特的公司结构——由非营利组织最终控制的限利润公司——本应增加问责性。“这里不应该信任任何一个人。我没有超级投票权。我也不想要它们,”Altman 在 2023 年向彭博社的 Emily Chang 保证。“董事会可以解雇我。我认为这很重要。”(正如董事会去年 11 月发现的,它_可以_解雇 Altman,但无法使这一举动生效。在被解雇后,Altman 达成协议,将公司实际带到微软,最终在大部分董事会辞职的情况下复职。)
但没有比像 Sutskever 和 Leike 这样的人担任重要角色更能表明 OpenAI 对其使命的承诺,他们是长期致力于安全的技术专家,显然愿意在需要时要求 OpenAI 改变方向。当我在 2019 年的采访中对 Brockman 说,“你们在说,‘我们要建立一个通用人工智能,’”Sutskever 插话道。“我们将尽一切努力在这方面推进,同时确保我们以安全的方式进行,”他告诉我。
他们的离开并不预示着 OpenAI 构建通用人工智能的使命发生变化——这一目标仍然存在。但它几乎可以肯定预示着 OpenAI 对安全工作的兴趣发生变化;公司尚未宣布谁,如果有的话,将领导超级对齐团队。
而且这表明 OpenAI 对外部监督和透明度的关注并不深刻。如果你想要外部监督和让世界有机会在你的行动中发挥作用,让前员工签署极其严格的 NDA 并不合逻辑。
在闭门造车中改变世界
这种矛盾是让那些关心确保 AI 真正造福人类的人对 OpenAI 感到深深沮丧的核心。OpenAI 是一家制造聊天个人助手的时髦中型科技公司,还是一个致力于创造 AI 神的万亿级项目?
公司的领导层说他们想要改变世界,他们希望在这样做时承担责任,并欢迎世界对如何公正和明智地实现这一目标提供意见。
但当涉及到真正的钱时——在争夺 AI 主导地位的竞争中,有令人震惊的巨额金钱利益——很明显,他们可能从未打算让世界获得那么多的意见。他们的流程确保了前员工——那些最了解 OpenAI 内部发生的事情的人——无法告诉外界发生了什么。
网站可能有高尚的理想,但他们的终止协议充满了硬核法律术语。很难对一家前员工只能说“我辞职了”的公司进行问责。
ChatGPT 新的可爱声音可能很迷人,但我并没有感到特别心动。
来源:https://t.co/4Znw2D7pkE