
拉斯维加斯的F1赛道上,赛车轰鸣声震耳欲聋。2023年11月一个寻常的下午,萨姆·奥尔特曼正享受着这场比赛带来的肾上腺素飙升。他不会想到,几分钟后,一通来自旧金山的视频电话将彻底改变他的命运。
电话另一端,OpenAI首席科学家伊利亚·苏茨克维的声音冰冷而坚定:"你已被解雇。"
没有预警,没有谈判,没有下台仪式。这位被誉为"ChatGPT之父"的硅谷明星CEO,就这样在毫不知情的情况下失去了他一手打造的公司。
但故事到这里才刚刚开始。
5天后,奥尔特曼官复原职。董事会成员被迫辞职,微软CEO萨提亚·纳德拉公开支持,超过700名OpenAI员工威胁集体离职。这场被称为"the Blip"的政变,如同漫威电影里的角色消失又重现,在硅谷引发了剧烈震荡。
时隔18个月,《纽约客》发布深度调查,耗时数月,采访超过100名内部人士,查阅了Ilya苏茨克维的70页秘密备忘录和Dario阿莫代伊的200页私人笔记。报道揭示了一个令人不寒而栗的事实:这场政变的导火索,是奥尔特曼长期存在的欺骗行为与权力操纵。
指控的核心是什么?一句话概括:一个被指控"缺乏良知"的人,正在掌握可能改变人类命运的技术。
这不是八卦,不是个人恩怨,而是AGI(通用人工智能)治理的核心矛盾。当技术威胁到人类生存时,谁来按下停止键?如果掌控这个按钮的人本身不值得信任,我们该怎么办?
撒谎成性:70页备忘录里的控诉
2023年秋天,苏茨克维开始秘密行动。
为了防止在公司监控系统留下痕迹,他用手机拍摄了数百份内部文件,通过"阅后即焚"的软件传递给董事会成员。一份约70页的备忘录,在董事会成员之间流转。
收到这份材料的一位董事后来回忆:"他当时极度恐惧。"
备忘录的开头是一个令人毛骨悚然的清单:"山姆一贯表现出……"——排在第一项的指控是:"撒谎。"
这不是情绪化的指控,而是有据可查的事实。备忘录包含了Slack聊天记录、人力资源文件、用手机拍摄的截图,指控奥尔特曼向高管和董事会歪曲事实,在内部安全规程上欺骗同事。
苏茨克维曾视奥尔特曼为好友。2019年,他在OpenAI办公室主持了奥尔特曼联合创始人格雷格·布罗克曼的婚礼,仪式上的戒童是一只机械手。但随着OpenAI越来越接近AGI,苏茨克维对奥尔特曼的疑虑与日俱增。
他曾对另一位董事会成员说:"我不认为山姆是那个应该手握按钮的人。"
另一位离开OpenAI、现任Anthropic CEO的前研究主管达里奥·阿莫代伊,留下了超过200页的私人笔记。笔记的副标题写着:"私人文件,请勿分享"。其中有一句话振聋发聩:"OpenAI的问题在于山姆本人。"
阿莫代伊的笔记记录了多起奥尔特曼欺骗与操纵的事件。其中最令人震惊的是与微软的那笔10亿美元投资协议。
2019年,OpenAI与微软洽谈这笔重磅投资。负责安全团队的阿莫代伊向奥尔特曼提交了一份按重要性排序的安全要求清单,最核心的一条是"保留合并与协助条款"——如果别的安全项目率先跑通AGI,OpenAI必须停止竞争,转而协助对方。
这听起来像是天方夜谭,但OpenAI的定位本就不同寻常。它不是一家只顾利益的公司,而是非营利组织,董事会有义务将人类安全置于公司成功乃至生存之上。
奥尔特曼满口答应。但就在交易即将敲定时,阿莫代伊惊觉合同里被暗中加入了一项条款,赋予了微软阻止OpenAI进行任何合并的绝对权力。
他找奥尔特曼当面对质,奥尔特曼否认条款的存在。阿莫代伊逐字读出合同条款后,奥尔特曼仍不承认。
阿莫代伊在笔记中写道:"他说的话几乎可以确定是胡扯。"
权力游戏:5天内的惊天逆转
苏茨克维的备忘录提交后,董事会开始秘密讨论数周。参与讨论的包括人工智能政策专家海伦·托纳和企业家塔莎·麦考利。他们评估奥尔特曼及其搭档布罗克曼是否仍适合领导这家公司。
2023年10月,董事会的讨论达到白热化。几名高管向董事会表达了强烈不满,使用了"心理虐待"这样的词语来描述与奥尔特曼共事的经历。他们告诉董事会,他们"不认为他是带领公司走向AGI的合适人选","没有信念他能或愿意改变,没有意义给他反馈,没有意义试图解决这些问题"。
到了11月,董事会意识到必须行动。但他们非常清楚,一旦奥尔特曼知道,他"会做任何可能的事情来破坏董事会"。他们必须小心翼翼,只能告诉极少数人。
11月17日,时机成熟。奥尔特曼正在拉斯维加斯看F1,苏茨克维邀请他参加董事会视频会议,然后宣读了那简短而致命的声明。
随后,董事会发布公开声明,解雇理由是"在沟通中未能始终如一地保持坦诚"。这个表述已经非常客气了。
消息一出,整个硅谷震动。作为最大投资者的微软表示自己完全被蒙在鼓里。纳德拉用"非常震惊"来形容当时的感受。OpenAI早期投资者、领英联合创始人里德·霍夫曼开始四处打探,甚至怀疑奥尔特曼卷入了贪污或性丑闻。"我他妈根本不知道发生了什么,我们试图寻找贪污或性丑闻的实锤,但什么也没找到。"霍夫曼后来回忆道。
被解雇的当晚,奥尔特曼飞回了旧金山那套价值2700万美元的豪宅。他迅速组建了自己的"流亡政府"。
Airbnb联合创始人布莱恩·切斯基、硅谷以手段凶狠著称的危机公关大师克里斯·莱汉立即加入。豪华律师团直接在奥尔特曼的卧室旁安营扎寨,开始策划绝地反击。
莱汉将此次解雇定性为"有效利他主义者策划的政变",敦促奥尔特曼发起猛烈的社交媒体攻势。切斯基则联系科技记者,转达对董事会的批评。
压力从三个方向同时袭来:
资本层面:即将敲定天价投资的Thrive果断按下了暂停键,暗示只有奥尔特曼回归,真金白银才会到账。微软则高调宣布,将为奥尔特曼及任何愿意出走的OpenAI员工设立直接竞争的全新项目。
员工层面:一封要求奥尔特曼回归的联名信在公司内部疯狂流传,绝大多数员工都签下了名字。
舆论层面:董事会选择沉默,奥尔特曼一方持续释放信息,掌控舆论大局。
托纳坦言:"撤销解雇是个办法,否则公司就得解散。"
最终,在不到一周的时间里,这场政变以奥尔特曼的完全胜利告终。苏茨克维、托纳、麦考利被迫辞职,新董事会成员——哈佛大学前校长劳伦斯·萨默斯和Facebook前首席技术官布雷特·泰勒——均是在与奥尔特曼密切商议后选定的人选。
员工们给这场戏剧性的转折起了一个名字:"the Blip"——就像漫威电影里的角色消失又重现。
安全让步:从20%到1%的算力
"the Blip"之后,奥尔特曼的权力更加巩固,但OpenAI的安全防线却在快速崩塌。
最令人震惊的是超级对齐团队的命运。2023年,OpenAI在博客文章中宣布成立这个团队,承诺将投入公司20%的算力进行长期安全研究,由苏茨克维和简·莱克等人主导。
但《纽约客》的调查发现,这个承诺从未兑现。
实际情况是,超级对齐团队只拿到了公司算力总额的1%-2%左右,而且用的是最过时的芯片和算力集群。莱克找到时任CTO的米拉·穆拉提抱怨,穆拉提却让他们别再提了,说"这个承诺本来就不现实"。
2024年,超级对齐团队被解散,莱克离职时写下了一句令人心寒的话:"安全文化和流程已经让位于闪亮的产品。"
这并非个案。奥尔特曼在推进产品时,多次绕过安全流程。
一个具体案例是GPT-4的安全审批。奥尔特曼向董事会谎称GPT-4已经通过了安全审批,但当董事会成员托纳要求查看审批文档时,无法提供。苏茨克维在备忘录中记录了奥尔特曼如何向高管和董事会歪曲事实,在内部安全规程上欺骗同事。
更令人担忧的是"国家计划"。2018年前后,OpenAI高管层认真讨论过一个方案:将AI技术出售给包括中国和俄罗斯在内的大国,引发竞价战。时任政策主管杰克·克拉克形容其目标是"制造一个囚徒困境,让所有国家都必须给我们资金"。
这个计划因多名员工威胁辞职而搁置,但它暴露了一个令人不安的事实:为了商业利益,奥尔特曼愿意将危险的AI技术出售给任何出价最高的人。
双重标准:监管与游说的两副面孔
奥尔特曼在公众面前是AI安全的代言人,但在幕后,他的行为完全不同。
公开场合,他不断呼吁加强AI监管,警告AI可能毁灭人类。他在TED演讲、国会听证会、国际峰会上,一遍又一遍地讲述AI的风险。
但私下游说,他却做相反的事情。《纽约客》的调查发现,奥尔特曼私下游说加州州长否决一项AI安全法案。这项法案要求AI公司建立安全评估和审计制度,被认为是监管的重要一步。
政治立场的转变同样令人咋舌。奥尔特曼一直是民主党的支持者,但在特朗普胜选后,他立即捐款并与其合作,宣布了规模达5000亿美元的"星际之门"基建计划。
更令人担忧的是他对外国资金的追求。《纽约客》报道,奥尔特曼长期寻求阿联酋等外国独裁政权的资金支持,甚至接受其领导人赠送的超跑作为礼物。前政府官员担忧,这种深度的财务捆绑可能导致关键技术外流。
一位微软高管的话道出了核心担忧:"他歪曲、扭曲、重新谈判、违背协议",认为"有一个虽小但真实的可能性,他最终会被人们像记住伯尼·麦道夫或萨姆·班克曼-弗里德那样记住"——这两位分别是美国史上最大庞氏骗局和FTX加密货币诈骗案的策划者。
人格画像:取悦型与反社会型的致命组合
什么样的人会做出这些行为?《纽约客》采访的超过100名内部人士,勾勒出了一个令人不安的画像。
一位前董事会成员说,奥尔特曼身上有两种几乎从未在同一个人身上见过的特质:第一是强烈的取悦他人的愿望,在任何互动中都希望被喜欢;第二是近乎反社会般地漠视欺骗某人可能带来的后果。
"他在任何房间里都希望成为最受喜欢的那个人。"一位前高管说,"他擅长说你想听的话,但第二天就忘得一干二净。"
但另一方面,当他觉得有必要时,他会毫不犹豫地撒谎、操纵、背叛。前首席人力资源官戴安·尹认为,奥尔特曼不是马基雅维利式的恶棍,而是真的相信自己说的话:"他太沉浸在自我的信念当中,他做的事情在现实世界里是没有逻辑,因为他似乎活在自我构建的世界里。"
这种人格特质的历史可以追溯到OpenAI之前。在Y Combinator担任总裁期间,奥尔特曼就曾因"撒谎"和利益冲突被创始人保罗·格雷厄姆劝退。已故天才程序员亚伦·斯沃茨在2013年就曾向朋友警告过:"你必须明白,山姆永远不能信任。他是个反社会者。他什么事都做得出来。"
这解释了为什么如此多曾经信任他的人,最终都对他失去信心。苏茨克维曾经是他最好的朋友之一,主持了他的联合创始人的婚礼,但最终还是选择了背叛他。阿莫代伊曾经是他最信任的高管之一,最终在200页的笔记里写下:"OpenAI的问题在于山姆本人。"
核心矛盾:当个人良知取代制度制衡
奥尔特曼的争议,暴露了AI治理的一个核心矛盾:当个人良知成为最后一道防线,而这个人本身不值得信任时,会发生什么?
OpenAI从成立之初就被设计成一个安全性拉满的组织。非营利结构、董事会优先对人类负责,甚至在极端情况下,可以牺牲公司本身。在这一框架下,CEO不仅是经营者,更被视为"高风险技术的守门人"。
按照OpenAI的规则,由六名成员组成的董事会有权解雇不可靠的首席执行官。这正是2023年11月发生的事情。
但问题在于,当董事会的决定引发员工威胁和资本压力时,这套治理机制就崩塌了。微软威胁"OpenAI可以从此消失",员工威胁集体离职,董事会被迫妥协。
这暴露了一个更深层次的问题:在AI时代,传统的公司治理机制可能已经失效。当技术足够重要、资本足够强大、员工足够多时,董事会很难对CEO进行有效制衡。
更令人担忧的是,奥尔特曼复位后,对针对他的指控的独立调查也被稀释了。OpenAI请来了曾主导安然和世通案调查的WilmerHale律所,但调查从未形成书面报告,仅以口头形式向两名新董事汇报。不制作书面报告的决定,部分基于这两位董事私人律师的建议。知情人士称调查"似乎旨在限制透明度"。
一位前董事会成员对"the Blip"事件感到深深的挫败:"我以为我们在保护人类,结果发现我们只是在保护他的权力。"
产业影响:信任危机与估值风险
《纽约客》的调查发布时间点非常敏感。OpenAI正在筹备IPO,估值已达8520亿美元,有望冲击万亿美元级别,跻身全球最具价值企业行列。
但这份调查可能对IPO进程产生重大影响。投资者开始质疑:一家由被指控"缺乏良知"的人领导的公司,是否值得这样的估值?
更现实的财务数据也不容乐观。OpenAI的年营收虽然快速增长(2023年约20亿美元,2024年约60亿美元,2025年约131亿美元,截至2026年2月底,年化收入已突破250亿美元),但亏损同样惊人。
据多家外媒披露,OpenAI预计2026年亏损约140亿美元,年度现金消耗在2027年预计将达到570亿美元。毛利率仅约33%,推理成本2025年达84亿美元,2026年预计升至141亿美元。按照内部预测,OpenAI最早要到2030年才能实现现金流转正。
奥尔特曼本人也曾公开警示AI行业的"泡沫化"风险,直言"有人将会损失惨重"。如果他的预测最终成真,他可能会成为地球上最富有、最有权势的人之一。
但问题在于:如果OpenAI的估值泡沫破裂,谁会承担损失?是微软、软银等早期投资者,还是后来入局的散户?奥尔特曼本人拥有OpenAI的零股权——这在现代科技行业极为罕见。
破局之道:超越个人良知的治理重构
奥尔特曼的争议,最终指向一个更深层的问题:AI时代的治理应该建立在什么基础上?
如果是建立在个人良知上,那我们注定会失败。没有一个人是完美的,即使是最有道德的人,也可能因为权力腐蚀而改变。更何况,我们可能根本无法确定谁是"有良知"的人。
如果是建立在制衡机制上,那我们需要重新思考如何制衡。
传统的董事会治理已经被证明失效。当员工威胁集体离职、投资者威胁撤资时,董事会很难做出不利于CEO的决定。
一种可能的方案是建立独立的AI安全监管机构,类似于核安全委员会,由政府或国际组织监管,不受公司内部政治和资本压力的影响。
另一种方案是建立"安全沙盒"机制,将AI安全研究从商业化压力中剥离出来,由非营利组织、学术机构独立运作。
还有一种方案是建立透明的安全审计制度,由第三方机构定期评估AI公司的安全措施,公开审计报告,接受公众监督。
但这些方案都面临同一个挑战:在AI技术快速发展的背景下,如何平衡安全与发展?如果要求过严,可能扼杀创新;如果要求过松,又可能导致灾难。
尾声:权力必须被约束
写到这里,我想起了一个细节。
在奥尔特曼被解雇后的一次董事会电话会议上,董事会成员逼迫他承认自己的欺骗行为。奥尔特曼反复说:"这太荒谬了。"然后,他说了一句耐人寻味的话:"我改不了我的性格。"
一位在场董事的解读是:"这句话的意思是,'我有对人撒谎的特质,而且我不会停下来。'"
奥尔特曼否认说过这句话,在接受采访时,他说当时更可能是在表达"希望成为团队凝聚力量"的意图。
但真相究竟是什么?我们可能永远无法确定。
我们能确定的是:当权力失去约束,良知沦为奢侈品,人类面临的不仅是技术风险,更是治理危机。
奥尔特曼的争议,不只是一个CEO的个人品德问题,而是AI治理体系失效的系统性危机。AI的未来不能依赖于单一领导者的良知,而需要构建超越个人意志的安全防线与权力制衡机制。
否则,我们可能正在走向一个危险的未来:最危险的技术,掌握在最不可信的人手中。
这不仅仅关于OpenAI,关于奥尔特曼,关于某一个公司或某一个人。这关于我们如何在AI时代重新思考治理、权力与安全的关系。
时间不多了。(文/王子祺)