只管继续建更多算力!OpenAI两位创始人罕见同台:Anthropic没有得到公平对待,马斯克的材料被断章取义!

只管继续建更多算力!OpenAI两位创始人罕见同台:Anthropic没有得到公平对待,马斯克的材料被断章取义!

把宏大的愿景和具体执行连接起来,一直是 OpenAI 与众不同的地方。”

“这不该是一场关于某个人胜负的游戏,而应该是全人类共同完成的项目。”

“但我认为核心永远不是新闻周期的起起落落,而是迈向 AGI 的进程”

要知道,近期 OpenAI 可谓风波不断:高管出走、Sam Altman被袭击,和马斯克陷入诉讼争议等。就在这时OpenAI 的两位联合创始人 Sam Altman 和 Greg Brockman 罕见地上了同一款播客!

在这场一个多小时的播客里,两人透露了许多有关OpenAI 的内幕:一次性揭开了公司的技术路线、内部争议,甚至与马斯克的陈年旧账。

没有虚的,全都是干货!

首先是关于 AI 的安全问题, Sam Altman 提到“整个行业在“如何谈论安全、如何使用安全”这件事上,一直有一种奇怪的关系,有时它会变成权力问题,而不是真正的安全问题。在早期,我更容易被带入一种特定的话语框架,觉得我们必须以某种方式去强调安全。”

在Greg的坚持下,OpenAI 并没有落入传统框架。甚至 OpenAI 最大的贡献之一,就是找到了一种不同的方式来讨论“安全”,例如“迭代式部署”这个理念,随着风险提升,让系统逐步变得更安全。

第二,从“人去适应机器”到“机器去适应人”。

“你脑子里有目标,但必须拆解成机器语言,从汇编语言,到后来的高级语言。但我们正在改进。我们正在打造的是一种极其直观的技术,是让机器来适应你。

Greg还举了个例并且把它描述为“顿悟时刻”我有个朋友,他的妹妹描述了一个她希望有人开发的应用。他一边听,一边把她说的话输入到 Codex 里。按下回车,几个小时后,他把成果给她看,一个完全符合她描述的应用。她当时的反应是:“这到底是什么?”她当时说:“这是谁做的?这完全就是我想要的!”他说:“是你做的。”

第三,OpenAI 面临的最大技术挑战之一是“机会太多”。AI 是一个几乎无限可能的领域,无论你从哪个方向扩展,都会出现全新的、前所未有的应用。

因此,OpenAI 现在的目标是“个人 AGI”:从平均需求到“个人AGI”,一种真正了解你、拥有完整上下文、你可以信任的 AI。你可以向它咨询财务、健康等问题,它能给出可靠的建议。

第四,LLM真的能到达超级智能吗?像 Yann LeCun 给的方向是LLM是死胡同,选择押注世界模型。主持人从AI写作方面切入,认为目前的AI没有到达“超级智能”的水平。

Greg 的回答是“我会把它理解为一种‘参差不齐的前沿’,目前 AI 的能力确实是不均衡的,但我们知道如何不断推进这个边界”,并且从技术角度揭秘了他们将会如何训练AI。 

第五,面对AI是否会加剧社会的不平等,使人产生“永久底层”的感觉?Greg的回答是“OpenAI的核心使命就是确保 AGI 造福全人类”;而 Sam 的表达更直接:他能看到三种未来,但只讲述了两种:非常繁荣但不平等加剧、没有那么繁荣差距缩小。

“我们是要追求最大化的繁荣,并接受随之而来的不平等?还是说,我们更关注相对公平,因此选择限制增长?因为人们担心,即使整体更富裕,那些最擅长使用这些工具的人会掌握过多权力。”

第六,美国目前在软件和AI上确实领先,但一旦AI要在物理世界落地,美国看起来就处于明显劣势。而改变劣势的方法——AI+机器人。

我去El Segundo,看到30家初创公司,当然很不错,是一个充满活力的地方,有很多想法和尝试。但跟我在中国看到的规模比起来,这真的只是“小打小闹”。我越来越觉得,这些技术最终一定会在物理世界中体现出来,而在这一点上,美国似乎处于明显劣势。

Sam 在分析了美国目前的短板和优势之后,表示:如果你要选一个方向,让美国在制造业、在“物理世界”重新变得有竞争力,那你会说我们需要大量机器人,去制造更多机器人。但现实是,我们甚至连一个执行器都做不好。

第七,在机器人领域也存在类似的“鸡生蛋,蛋生鸡”的问题:没有硬件就很难做软件;没有足够强的软件,也很难推动硬件发展。

OpenAI在2018年的机器人手项目,就遇到了这个问题,因此Greg认为:和当时不同,我们现在已经有很强的通用算法,如果能把它们应用到物理世界,硬件开发的方式会完全不同。所以变革存在潜力,但需要国家层面的意志力

当然除此之外,还有 Sora 被砍掉的原因,Anthropic和OpenAI的竞赛,Sam Altman被袭击的那一周以及OpenAI 与马斯克之间被断章取义的二三事。

甚至官方在X上开玩笑说:“如果有人愿意花10万美元(这似乎是目前的市场价)为所有人解锁这个播客,我会考虑并同意。”

我们一起来看一下这个价值10万美元的播客!

收购 TBPN播客:传达价值信息

主持人:我觉得这是你们第一次一起上播客。
Sam Altman :确实很神奇,我觉得是这样。至少很久没有了。也许真的是第一次。
主持人:我不会跟你们争抢“首秀”,不过你们自己也买了一档播客?我很好奇你们为什么会买一档播客,不用深入讲,但可以简单说说吗?
Greg Brockman:我觉得做 TBPN 的那些人很厉害,非常有创造力。我认为在我们正在迈向的这个世界里,构建对人们真正有用的 AI 系统,并帮助大家理解这些技术在个人生活和工作中的价值,需要这样的人来传达这个信息

备注:TBPN是一个受欢迎的科技脱口秀节目,全称 Technology Business Programming Network,由Jordi Hays和John Coogan创立和主持。在2026年4月2日,被OpenAI收购。

主持人:我看到你上过那个节目。你上过吗?
Greg Brockman:上过。
主持人:好吧。我没有看完所有集,但它确实挺有意思。既然是你们两位,而且你们也很久没有一起出现了,我们想从一点“怀旧”开始。

贯穿 OpenAI 的一条主线

主持人:Kylie 和我这些年都认识你们。我们在准备时回顾了一下,现在已经超过10周年了。你们是仍在公司的两位联合创始人之一,我想 Wojciech 也是第三位。所以你们就像贯穿公司始终的一条主线。你们一开始是“挑战者”,现在成了“领头者”,经历了很多波折、戏剧性变化。我很好奇,在这一切过程中,你们之间的关系发生了怎样的变化?是否随着时间发生了转变?

备注:沃伊切赫·扎伦巴(Wojciech Zaremba),OpenAI联合创始人
Sam Altman:这段关系非常好。当然,我们都希望少一点戏剧性,多专注技术。但在一个充满混乱、冲突、张力和权力斗争的世界里,能有一个彼此完全理解、共享全部背景的人,真的非常难得。我们一起经历了辉煌时刻,也一起度过了艰难时刻。这是整个 OpenAI 经历中最美好的部分之一。
Greg Brockman:从某种意义上说,OpenAI 的起点可以追溯到 2015 年 7 月的一次晚餐之后。我和 Sam 一起开车回城,在车里对视了一下,说:“我们必须做这件事,对吧?”当时大家都在讨论,现在再建立一个能冲击 AGI 并产生积极影响的实验室是不是太晚了。
主持人:现在回头看,那种担心显得有点可笑。
Sam Altman :对,好像已经错过了机会一样。
主持人:我记得你们刚开始的时候,我也有这种感觉,觉得会被别人甩开。
Greg Brockman:但那次晚餐的结论是:这并不是不可能。我们都觉得,这件事太重要了,必须去做。而这种精神一直延续下来。早期的时候我其实是失业状态,所以第二天就全职投入了;Sam 当时还有一份正式工作。但我们一直在通电话,一天可能五次。
主持人:那时候你们已经是很亲密的朋友了吗?
Sam Altman :我们认识很久了,感觉像很久,其实是 2010 或 2011 年你加入 Stripe 的时候。
Greg Brockman:对,我们是通过 Collison 兄弟认识的。所以算是比较熟的社交朋友。
Sam Altman :其实没我想象的那么久,大概是 2010 到 2015,五年时间。
Greg Brockman:感觉时间被压缩了。

战壕里的战友

主持人:在这么高压的环境下工作,你们应该只会越来越亲近。
Sam Altman :是的。有人用“创伤联结”这个词,我不太喜欢。我更喜欢“战壕里的战友”这种说法。无论如何,努力工作的一个好处,特别是在压力大的时期努力工作,是你真的会建立这些关系,而这些关系我至少没有见过以其他方式形成。
Greg Brockman:而且我觉得我和 Sam 的合作方式,可能和典型的联合创始人关系不太一样。我们始终保持高频沟通,一天五次电话,每次两三分钟,这种节奏一直延续到现在。我们并不是在所有事情上都意见一致,但正是这种差异让我们更强大。Sam 会提出一个想法,我会思考是否有不同路径、不同角度,或者这个想法如何和其他事情关联。我非常欣赏 Sam 的一点是,他总能看到不同想法之间的连接,并始终关注“大图景”。然后我们一起去思考如何落地执行。我觉得,把宏大的愿景和具体执行连接起来,一直是 OpenAI 与众不同的地方。

 OpenAI 走到今天的重要原因:细节与全局保持平衡

主持人:在这10年里,有哪些时刻你们觉得“分歧”其实很重要?有没有什么关键节点让你们印象深刻?
Sam Altman :我觉得 Greg 做得最好的事情之一,而这并不是我的本能,是始终推动把注意力集中在最重要的事情上,不管是他自己的工作,还是公司的整体方向。有些时候我会想做更多事情,但 Greg 会问:“这是最重要的吗?”然后说我们应该真正专注,把公司聚焦起来。我们在这点上是有分歧的,但这种坚持对整个公司来说非常有帮助。
Greg Brockman:我也想补充一点,比如在“算力”这件事上,不断提升野心。有时候我在理性上知道,我们正在走向一个由算力驱动的经济,需求总会超过供给。但现实是,我们已经有很多复杂的基础设施要建设、要运营,你会感觉已经被这些工作淹没了。而 Sam 会说:“不,还要更多。”

这其实非常重要,不能因为细节太多而忽略最关键的问题。因为这不仅关系到未来6个月,而是未来2年、5年甚至10年的核心。你需要在深入细节和不被细节淹没之间找到平衡,我觉得这种平衡正是 OpenAI 能走到今天的重要原因。

安全之争:行业传统和OpenAI

主持人:你们肯定在某个产品或战略上有过非常激烈的分歧吧?哪一个最严重?

Sam Altman :刚才 Greg 在说的时候我就在想,这其实不是某个具体产品,但我首先想到的是“如何谈论安全”。甚至在你问之前我就想提这个,我们从未在“安全的重要性”上有分歧,也从未怀疑做好或做错这件事的意义。

但整个行业在“如何谈论安全、如何使用安全”这件事上,一直有一种奇怪的关系,有时它会变成权力问题,而不是真正的安全问题。在早期,我更容易被带入一种特定的话语框架,觉得我们必须以某种方式去强调安全。但 Greg 一直非常克制,坚持我们不能落入传统框架,不能那样去谈。即便如此,我觉得我们有时还是谈得不够理想。

但到目前为止,OpenAI 最大的贡献之一,就是找到了一种不同的方式来讨论“安全”。不仅是如何构建产品、如何让社会理解,更包括如何部署这些产品。比如“迭代式部署”这个理念,随着风险提升,让系统逐步变得更安全。Greg 在这件事上顶住了巨大的压力,坚持这条路线。这对公司的整体战略。不仅是表达方式,还有产品的开发和发布都非常关键。

走向“韧性”和“迭代部署”

Greg Brockman:是的。如果你看 OpenAI Foundation(负责治理 OpenAI 的非营利组织),它的一个核心支柱是“AI韧性”这意味着要思考如何让 AI 对世界产生积极影响。这不是靠某一个技术手段就能解决的,比如你不能说“有了某种监控机制就完成使命了”。这其实是一整套深层次的社会协同过程,需要社会各界共同参与,从不同角度理解这项技术,以及它如何影响人类和世界。

你不可能通过一篇论文就解决“AGI如何造福世界”的问题。这必须是一个全球性的努力,来自社会、来自不同群体、来自多种理解方式。但在10年前我们刚开始时,这一点几乎没有被真正理解。那时很容易陷入一种思维:我们是技术人员,我们只需要把技术做好。但这种思维其实是一种陷阱。

所以我们花了很多时间去做“第一性原理”的思考:如何把一种具有变革性的技术,以真正能帮助人们日常生活的方式落地?你会发现,如果你先用一个较弱的技术带来积极改变,那么当更强大的技术出现时,一切会更顺利。因此,我们自然会走向“韧性”和“迭代部署”的路径。我觉得这也是我们两人之间持续讨论的核心,如何真正实现这个使命,并把事情做好。

技术并未落地:人们需要一种“面对挑战的权利”

主持人:我感觉就像昨天还在 2022 或 2023 年的 South by Southwest 上听你们谈 AI,那时的讨论和现在完全不同。感觉这10年里,关于安全和对齐的讨论变化很大。你们现在回头看,会有什么不同的做法吗?在那些论坛或采访中,你们学到了什么关于“如何谈论安全”?

Sam Altman :甚至在谈安全之前,我觉得我们作为技术人员,很容易陷入一种叙事:我们要构建超级智能……然后……最后一切都会变好。但我们没有把“省略号”讲清楚。我们一直在说要打造这种惊人的技术,它会带来很多美好的事情。但现在世界上很多人的感受是:“好吧,看起来你们真的会做到。但那又怎样?这对我有什么意义?”

行业里常说“它会治愈癌症,你会很幸福”,但这其实没有真正打动人。很多人会说:当然,治愈癌症很好,但我觉得人们真正关心的是:繁荣、掌控感,以及他们是否还能拥有有意义的工作。我前几天看到一篇很有意思的帖子,让我印象很深,大意是,人们需要一种“面对挑战的权利”。

其实人们是需要一些挑战的。你不会希望每天都完美无缺、所有事情都被替你做好。大家对 AI 的一个担忧是:假设你们真的做成了,它赚了很多钱,完成了所有工作……那我该做什么?我的孩子将来做什么?生活会变成什么样?成长从哪里来?人们还会为什么而努力?我觉得整个行业,包括 OpenAI,还有我和 Greg,我们一直在谈技术有多惊人、它能做什么,但没有把这些“点”真正连起来,去说明未来的生活到底会是什么样。

当我和有学龄孩子的家长交流时,他们最常问的问题是:“我的孩子应该学什么?未来会是什么样?什么还会有经济价值?”但我后来意识到,这其实不是他们真正想问的问题。他们真正想问的是:“在这个新世界里,我的孩子要怎样才能拥有充实、有意义的人生?”

你当然可以从经济角度回答,但那并不能真正让人安心。因为这里有一个更深层的问题。

AI “正面的东西”:救命、赚钱与创业浪潮

Greg Brockman:我想补充一点,其实我们在这方面已经有很多真实的观察。比如在 ChatGPT 里,我们看到很多用户反馈,说它改变了他们或他们亲人的生活,甚至救了命。比如有一个案例,一个孩子一直有严重头痛,但被拒绝做 MRI 检查。家长用 ChatGPT 去研究症状,并据此争取到保险批准检查。结果发现是脑瘤,最终得以及时治疗、救回了生命。那一家人说,如果没有 ChatGPT,他们根本不知道该怎么办。这样的故事还有很多。

我觉得关键在于让人们理解,这项技术不仅是抽象地改善社会,而是可以直接帮助他们,比如帮助他们赚钱。我们已经开始看到一波创业浪潮,我认为这会成为今年的一个重要主题。

我们正在构建的 AI,会让“人去适应计算机”的模式发生改变。过去70年,我们一直在用不自然的方式工作,你要把自己的目标翻译成机器能理解的语言。而未来是计算机为你工作。那么问题就变成:什么才是“值得做的工作”?什么是“好的事情”?这些将是非常人类本质的问题,关于自主性、赋权。

所以我认为这是一种非常积极的变化,而且不是盲目乐观的积极。但问题在于,人们更容易看到“会失去什么”,而很难看到“会得到什么”。很难看清新的机会、这场转变带来的好处。

我们也越来越意识到,除了说明风险,我们同样需要把这些“正面的东西”讲清楚。

让机器来适应人:顿悟时刻

主持人:基于你们刚才说的,我有几个问题。我最近带儿子去了 Oberlin College,在一个有600到700人的大厅里,大家来自全美各地。校长做了演讲,然后进入问答环节。很多问题都关于 AI,但让我意识到我们其实生活在一个信息“泡泡”里,因为那些问题在我看来都很基础,我不是贬低任何人,只是感觉他们并不了解正在发生什么。我当时的感觉是:“哇,你们还不知道即将发生在你们身上的事情。”这让我有点震惊,也让我很开眼界。

他们问的问题包括:AI 会怎么用于课堂?怎么防止学生依赖它?然后稍微深入一点,但整体感觉是,这些很聪明的人其实并没有真正理解现状。如果人们连这些例子都不了解,而我们甚至还不知道未来的具体形态,那我不知道该怎么去解决这个问题,也不知道该如何帮助大家做好准备。

Greg Brockman:我倒是有一个比较乐观的看法。如果你只是“读”关于 AI 的内容,你会形成一种印象:它很抽象、很难理解。但一旦你开始“使用”它,就会发现它非常直观,这其实正是 AI 的核心意义之一。

过去70年,我们设计计算机的方式,是让人去适应机器。你脑子里有目标,但必须拆解成机器语言——从汇编语言,到后来的高级语言。即便现在用 ChatGPT,你仍然需要理解一些概念,比如语言模型是怎么工作的,为什么要开新的对话窗口,为什么它不能记住一切。这些都是技术限制,但我们正在改进。我们正在打造的是一种极其直观的技术,是让机器来适应你。当人们真正用起来时,他们会意识到:“原来我可以做到这些。”

我最喜欢听的一些故事是,比如美国中西部的一个例子:我有个朋友,他的妹妹描述了一个她希望有人开发的应用。他一边听,一边把她说的话输入到 Codex 里。按下回车,几个小时后,他把成果给她看,一个完全符合她描述的应用。她当时的反应是:“这到底是什么?”她当时说:“这是谁做的?这完全就是我想要的!”他说:“是你做的。”这就是那种“顿悟时刻”,我觉得每个人都会经历。

一旦你真正体验到 AI 能为你做什么,并意识到你被赋予了能力,你脑海里有一个想法,可以把它变成现实,那种感觉会彻底改变。比如我们即将发布的一些新图像模型,真的非常惊人,你可以以前所未有的方式去创造。

还有一个让我印象很深的故事。我祖母患有阿尔茨海默症,那对所有人来说都非常艰难。但有一件事让我记住了:她仍然可以用 Amazon Alexa 播放音乐,还能记住歌词并跟着唱。那是一种通过技术与“自我”保持连接的方式。这让我意识到,如果我们能构建足够直观的界面,让任何人都能自然地使用,而不是必须掌握一堆与本质需求无关的技能,那将非常重要。

亲自体验:让世界“更新认知”

Sam Altman :Greg 刚才说的让我想到三点,我基本都同意。

第一,在我们发布产品之前,我们曾努力告诉大家:“AI 要来了,你们要重视,它会改变一切。”但几乎没人关注。我们写了很漂亮的博客,做了很多令人惊叹的事情,比如赢得电子游戏比赛、做出能用机械手解魔方的机器人等等。我们自己觉得很酷,还想着The New York Times 都报道了,我们应该很成功吧”。但实际上,几乎没人真正关心,没有产生实际影响。

直到我们推出了 ChatGPT,而这在技术上远不是我们最惊人的成果,但一旦人们能亲自体验,他们就会说:“我懂了。”我觉得那一刻,世界第一次真正集体意识到:“AI 可能是真的。”因为人们可以用它、从中获得价值,形成自己的判断。这和“听别人讲”完全不同。后来在代码模型上也发生了类似的事情。

所以到目前为止,真正让世界“更新认知”的,是两件事:你可以问电脑任何问题并得到回答,或者让电脑帮你写代码、做事情。这些才是真正有冲击力的。相比之下,我们说“超级智能即将到来,会改变一切”,也许听播客的人会觉得“有道理”,但不会真正产生巨大影响。因此,我们能做的最重要的事情,是持续推出优秀、好用、能创造巨大价值的产品,而不是只停留在抽象讨论。

第二点,我们反复看到一个现象:当我们发布一个已经很不错的东西时,人们会说:“我无法想象它还能变得更好。”比如 Greg 提到的那个即将发布的图像模型,对我来说就是一个例子。我原本以为图像生成已经差不多解决了,已经很好了,不需要再进步。但这个新模型让我意识到:还能前进很远,还能做更多事情。
主持人:它能做什么?
Sam Altman :能生成非常惊人的图像。
主持人:文字效果也好吗?我试着做《Core Memory》的周边设计。
Sam Altman :很快再试试吧,这次真的做得很好。团队干得非常棒。还有一点,就算是 ChatGPT,当我们把 GPT-4 放进去时,我记得很多很聪明的朋友都说:“这就是 AGI 了。如果再变聪明我也不在乎,只要更便宜就行,这已经太惊人了。”但如果你现在回去用 2023 年 3 月那个版本的 GPT-4,你会觉得“这也太差了”。可当时大家都觉得“已经解决了”。

但随后它不断进步,你对它的期待和可能性的想象也不断提高。更不用说后来的推理模型和代码能力。仅仅是 ChatGPT 本身,就在这段时间里大幅提升。我们一再看到:世界会说“这已经够好了”,但随后每个月、每个季度,能力都会显著跃升。

第三点,正如 Greg 所说,这些模型现在其实还很“笨”,相对于未来来说。而且它们对你的生活了解非常有限。你仍然需要不断“调教”、引导它,才能得到想要的结果。

但我们离这样一种模型已经不远了:它真正了解你,了解你的生活、你在做什么、你关心什么、你身边的人是谁。它可以接入你的电脑、浏览器(当然是在你允许的范围内),甚至逐渐了解你现实世界中的情况。那将彻底改变使用计算机和使用 AI 的体验。我对此非常兴奋。但我觉得连我们自己都还没有真正直觉地理解,那种体验会是什么样。

OpenAI 面临的最大技术挑战之一:“机会太多”

Greg Brockman:说到这个,你会发现你现在花很多时间,其实是在对 Chat 或你用的各种工具解释“到底发生了什么”。这种体验其实很烦人。就像你有一个同事,你得不断跟他解释:不是,这不是我要的,这才是我想要的,这里发生的是这个。其实这些上下文本来是可以被打包起来的。

主持人:这些上下文其实是可以打包好的。

Greg Brockman:没错。现在的系统并不是你真正希望它运作的方式。再补充一点 Sam 刚才说的:我觉得在 OpenAI 面临的最大技术挑战之一,其实是“机会太多”AI 是一个几乎无限可能的领域,无论你从哪个方向扩展,都会出现全新的、前所未有的应用。关键在于,我们要有清晰的愿景,知道该聚焦在哪里,才能获得最大的回报和价值。

比如现在我们有代码系统,但很明显,它会扩展到几乎所有计算机相关的工作。你想想你每天的工作,其实是高度交织的,你一边和人交流,一边在电脑上处理事情,还要不断想办法把上下文输入进去。这本身就是一个重要问题。同时,在你的个人生活中,你也需要类似的能力。

我们现在把目标称为“个人 AGI”,一种真正了解你、拥有完整上下文、你可以信任的 AI。你可以向它咨询财务、健康等问题,它能给出可靠的建议。这一切都依赖于它对你背景的理解。

所以你会发现,从技术角度来看,用于“深度计算工作”的 AI 和用于“个人生活”的 AI 之间,其实界限是模糊的。即便你可能希望有不同的系统:一个专注工作,一个专注生活,它们依然可以基于同样的技术基础并行发展。而我觉得最神奇的一点是,我们构建的一切,本质上还是一个“深度学习系统”。只是不断扩大规模,然后应用到各种令人惊叹的场景中。

参差不齐的前沿:LLM 能够达到未来

主持人:我想问一个相关的问题。我本来不打算问的,但还是想问。我之前并不是不相信 AI,我也看到它能做很多惊人的事情,但直到最近我还是有点怀疑。

Greg Brockman:是什么让你“转变看法”的?

主持人:有几个原因。一是我开始更多地使用“智能体”,并且去调教它们,让它们按照我的需求工作。那一刻我真的感受到你们说的,它在帮我节省时间,而且做得很好。

另一个原因是,我一直在报道生物科技,看到一些最新成果后,我感觉代码和生物科技是目前最明显被 AI 改变的领域。但同时,我也看到你们描绘的路径,从大语言模型(LLM)走向更强能力的未来。

不过我仍然有一个疑问,可能因为我长期从事文字工作:AI 的写作还不够好。这更多是一种直觉和经验上的感受,但我总觉得这还不是“超级智能”,在个性和表达上还差很多。LLM 真的能达到那一步吗?

Sam Altman :我们在个性方面还没到那一步,但LLM会到达那里。

Greg Brockman:我会把它理解为一种“参差不齐的前沿”。举个例子,就在过去几天,AI 解决了一个长期存在的数学问题。一位研究这个问题多年的数学家发表了看法,像 陶哲轩这样的顶级学者也表示,这个成果可能揭示了不同数学领域之间的新联系。我们开始看到这些系统在某些领域展现出真正的“美感”。
当然,这只是一个特定领域。数学和创意写作完全不同。但你会看到,很多数学家已经在说:“那我们还能做更多什么?”

所以,目前 AI 的能力确实是不均衡的,但我们知道如何不断推进这个边界。就像当年 AlphaGo 的第37手棋,那不仅是一个高明的招法,还改变了人们对围棋的理解,让更多人开始下围棋,提升了这项活动本身的意义。

未来,我们不仅会减少你对 AI 的不满,还会让你在写作等领域,做到今天难以想象的事情。

主持人:不好意思我再追问一下。我之前听说 GPT-5 会非常擅长写作。我自己真正“转变看法”的,是推理模型,比如 Claude 做出的研究结果,还有你们的研究功能,确实帮我节省了很多时间。但我之前被承诺的是:写作能力应该已经很好了。可现在的写作还是感觉没有“灵魂”,总觉得缺了点什么。

Greg Brockman:从技术角度讲,我们目前的方式是:先用无监督学习训练模型,让它从公开数据中学习如何预测“下一步该说什么”。本质上是把它放进一个新情境,让它判断什么是合理的回应。然后我们会加入强化学习阶段,让模型尝试不同方案,根据表现给予正向或负向反馈。

主持人:就是奖励和惩罚?

Greg Brockman:对,但不是“惩罚它”,只是信号反馈。而真正困难的问题在于:我们该如何评判?我们如何决定一段内容“好不好”?就是“点赞还是点踩”。在数学和科学这些领域,这种评判相对容易,但在一些更开放的领域就难得多。不过现在,我们也在用越来越聪明的 AI 来提供这种“反馈信号”。

所以一个核心挑战是:如何扩大那些“可以被评判”的任务范围,这也是我们长期投入的重点之一。其实很多思路从 OpenAI 创立之初就已经存在了,我们当时大致设想过路径。现在来看,我们确实在接近目标,但仍有很多需要改进的地方。希望你继续给我们反馈,我们也能不断优化。

从平均需求到“个人AGI”

Sam Altman :还有一个内在挑战是:你想要的写作风格,和大多数人想要的可能完全不同。而现在我们必须做一个面向十亿用户的模型,尽量满足“平均需求”。未来我们希望模型在个性化方面足够强,让你觉得它是一个很棒的写作者,同时另一个生活背景完全不同的人,也会觉得它写得很好,尽管你们的需求完全不同。

主持人:但这正是我想问的:如果是“个人 AGI”,你会希望它有那种火花、灵魂、魔力,对吧?如果没有的话……我看到像 Yann LeCun 一直对此持怀疑态度;而 Demis Hassabis 最近似乎更接近你们的看法,认为 LLM 可以走到那一步,但可能还需要一些“额外的东西”。但你们似乎非常有信心。

Sam Altman :我们其实还没有专门去训练模型,让它成为“符合 Ashley Vance 标准的优秀写作者”。我们目前在做的是,让它去解决连世界顶级数学家都解决不了的问题。我不是说你和这些数学家的智力对比如何。

主持人:作家也很聪明的。

Sam Altman :对,我只是想说,数学问题同样非常困难。所以如果我们能做到这一点,我非常有信心,这种方法同样可以学会你认为的“好写作”,并为你实现。
Greg Brockman:顺便说一句,我们在这方面也有一些新模型即将发布。等这期播客上线后,你可以再评判一下,看看有没有进步。写作、个性,这些能力都在不断进步,就像一个“参差不齐但持续推进的前沿”。在这个领域里,更重要的不是看当前水平,而是看增长的斜率,甚至用指数曲线来理解它。如果你对比一年前的写作水平……抱歉 GPT-5 让你失望了。别担心,我们非常有动力去把这件事做好。我认为我们已经清楚地看到了改进路径,可以针对各种应用场景持续优化。

实现AGI是OpenAI 使命的核心

主持人:在你们描绘的这个世界里,如果一切顺利,疾病被治愈、资源更加丰富、问题被解决,人类整体被提升,我还是有点担心:这项技术似乎会在大多数情况下“加剧不平等”。即使所有人都受益,但差距可能会被拉大。当我听你们谈如何使用这些工具时,我感觉有些人会把它用到极致,而另一些人可能会被甩得更远。甚至会出现一种“永久底层”的感觉,人们看着这些强大的工具,却觉得:“那我存在的意义是什么?”从而产生强烈的被剥夺感。是的,也许你有更多时间去做有趣、创造性的事情,但总感觉别人会用这些工具做到更极致的事情。

Greg Brockman:这其实正是 OpenAI 使命的核心。我们创立这家公司,就是因为看到这项强大的技术即将出现,它可能是人类历史上最重要的技术。那么问题是:如何确保它真正惠及所有人?不仅是“很多人”,而是“全人类”。
这已经写进我们的使命中,确保 AGI 造福全人类。而且我们是认真的。你看我们的公司结构,我们尝试了多种形式,希望把这些价值观制度化,确保技术真正为大众带来好处。

这也体现在产品选择上。比如我们推出 ChatGPT,是因为我们相信这项技术必须交到人们手中。顺便说,这在当时是很有争议的,有人认为应该秘密开发,不该让公众接触。但我们认为,让社会逐步适应、建立“韧性”,才是正确路径。

当然,这里面有很多复杂性,但总体方向是清晰的。我认为“底线”不仅会稍微提高,而是会被大幅抬升。比如,你可以想象:每个人口袋里都有一个“医生”,比当今世界上最好的医疗团队还要强,而且任何拥有智能手机的人都能免费使用。这将是一个巨大的跃迁。

当然,“上限”也会被拉高,这一点是合理的。至于最终的分配结构如何,这是我们一直在思考的问题。比如 OpenAI Foundation 持有公司大约25%到30%的股权,如果 OpenAI 非常成功,这部分价值可能超过1500亿美元,而这些资产是锁定在非营利体系中的,目的是回馈社会。

AI 带来的三种未来:追求最大化的繁荣还是公平

主持人:前几天我们一起吃饭,我听你讲你是怎么用这些 agent 的。我认识你这么久了。说实话,你已经非常聪明了,但我当时就在想:“天哪,Greg 加上这些机器……”

当时我在想,就算我已经在用这些工具做一些对自己有帮助的事情,但当我听你描述你的生活和工作方式时,我真的觉得:“天哪,这以后会出现一群‘超级人类’。”说实话,那种感觉有点让人畏惧。虽然很酷,但也确实挺吓人的。我会觉得:“我根本不会像你那样用这些东西。”

Sam Altman :我能不能说一个不那么“修饰过”的版本?

主持人:请说。

Sam Altman :希望我不会因此惹麻烦。我大概能看到三种未来

第一种,就像 Greg 说的,“底线”被大幅抬高。每个人主观上都变得更富有,比如富10倍,物质极大丰富,繁荣程度非常惊人。人们会觉得:“和十年前比,我现在过得太好了。”

但在这个世界里,那些真正会用 agent、能调动大量算力的人,会变得极其富有,甚至出现“万亿美元级富豪”,比如10个这样的超级富豪。所以,底线确实大幅上升,但因为这是一个可以被放大的杠杆,最有能力、最有野心、以及本来就有资源的人,反而会让不平等加剧。这是我能看到的一种世界。

第二种世界是,通过各种方式,“底线”提升没那么多,总体繁荣也没那么高,但不平等反而减少。比如十年后大家可能感觉只富了一倍,但差距变小了。我先停在这两个选项,因为我觉得这才是问题的核心。

主持人:第三种更可怕吗?

Sam Altman :不是,只是和我想表达的重点关系不大。我觉得很多人,至少我和 Greg,会直觉认为第一种更好。我猜你可能也会同意。但从情感上来说,很多人并不这么想。

Greg Brockman:我不想说什么是“显而易见”的,但对我来说,我看到这项技术的巨大潜力。我也觉得,从社会层面来看,它非常重要。比如从国家竞争力角度,你看机器人领域,我们其实并不领先,但在软件方面我们确实有机会。这些因素都需要一起考虑。

Sam Altman :是的。其实很多在其他问题上意见分歧很大的人,在一点上是共识:必须在芯片、机器人、AI 等领域保持竞争力。但接下来真正的问题是:我们如何组织社会和经济?

我们是要追求最大化的繁荣,并接受随之而来的不平等?还是说,我们更关注相对公平,因此选择限制增长?因为人们担心,即使整体更富裕,那些最擅长使用这些工具的人会掌握过多权力。

从理性上看,我觉得答案很清楚;但从情感上,我完全理解为什么这并不简单。我也理解人们的担忧:如果不平等在这里失控,这种工具的“复利效应”可能带来我们尚未理解的后果。

不过我最后想说一点:无论哪种情况,我们都应该追求更多的算力、更多的基础设施,以及尽可能便宜的 AI 访问方式。否则,如果资源有限、价格上涨,只有富人能用,那不平等只会被进一步放大。

AI 本质上是“机会”:算力是每个人的机会

Greg Brockman:我想在这点上补充一下,也和我们之前的讨论有关——包括我和 Sam 是如何一起思考问题的。当我们列出这两种选项时,其实可以反问:真的只有这两个选择吗?是不是还有我们没看到的路径?

我觉得 Sam 刚才说的一点很关键:AI 本质上是“机会”。只要你能获得算力,它就是每个人的机会;如果你没有算力,那再会用 agent 也没用。所以如果我们能创造一个世界,让每个人都能获得算力,就像我们这一代人比父母更擅长使用电脑,因为我们是“原住民”,而现在这一代年轻人,会比我更擅长使用 agent,甚至强10倍,那会非常惊人。

主持人:确实很疯狂。我之前写过一篇报道,讲一个用 Claude 搭建核聚变装置的年轻人。重点其实不在装置本身,而是他使用电脑的方式完全不同。他才22岁,同时开着8个AI应用在工作。

Greg Brockman:如果你能把算力交到这样的人手中,如果每个孩子都能获得算力,那这可能会变成“最极致版本的美国梦”:任何有意愿、有行动力、愿意深入使用这些技术的人,都能获得巨大回报。你会看到非常强的跃迁和流动性。
所以在某种程度上,对于“选项一还是选项二”的问题,其实是给出完全不同的答案。而且我认为这是有可能实现的。

美国扭转劣势的方法:AI + 机器人

主持人:我感觉我们现在在聊一些比较宏观的东西,但其实也有一堆很具体的问题。我这次就“犯规”再问一个更宏观的,可以吧?

基于我们刚才聊的内容,你们可能也知道,也可能不知道,我一直在深度关注硬件这个领域。可以说我可能是美国去过工厂和硬件初创公司最多的人之一,同时也一直在看中国那边的发展。

我脑子里一直有个想法:是的,美国在软件上领先,在AI上也领先。过去40到50年,美国的强势基本都是软件驱动的。但当我去想这项技术在物理世界里的落地时,我完全看不到一个美国还能在任何意义上保持竞争力的未来,不仅是机器人,而是所有进入这些硬件系统的零部件、基础组件。

我去El Segundo,看到30家初创公司,当然很不错,是一个充满活力的地方,有很多想法和尝试。但跟我在中国看到的规模比起来,这真的只是“小打小闹”。我越来越觉得,这些技术最终一定会在物理世界中体现出来,而在这一点上,美国似乎处于明显劣势。

Greg Brockman:我能想到的是,有一群人在非常努力地试图改变这一点。比如说Sam……

主持人:我知道你们通过投资很多硬件公司也在参与……

Sam Altman :不是不是,我们确实在认真思考机器人作为整个体系中的关键部分,并且也在努力把机器人做好。如果你要选一个方向,让美国在制造业、在“物理世界”重新变得有竞争力,那你会说我们需要大量机器人,去制造更多机器人。但现实是,我们甚至连一个执行器(actuator)都做不好。但我们会解决这个问题,我们一定会把它做出来。

主持人:通过你们的机器人项目?

Sam Altman :我们必须这么做。但这只是其中一部分,还有很多更重要的问题。比如全球未来需要多少吉瓦级的电力来支撑AI计算?需要制造多少芯片?还有一些很“无聊但关键”的问题,比如如何组装足够多的机架、铺设网络线缆。这些基础设施,美国其实是严重落后的。

我认为机器人可能是解决方案之一,因为这个转型必须非常快,而美国现有的优势可以部分利用在这里。但确实,这个问题的严重性是你说得对的。好消息是,我们现在在棋盘上多了一颗新的“棋子”。

主持人:通过OpenAI,还是美国?

Sam Altman :美国

主持人:我是说,你到底什么意思?我有不同的感觉我觉得我们现在是在“假装做硬件”,但最后会被彻底甩开。

Sam Altman :在软件路径上,是的,我们是同意的。如果我们能做出真正通用的机器人系统,比如类似Codex那种能力,让你可以说“去帮我重新配置这个工厂”“去帮我生产这种机器人”“去做采矿和提炼”,那整个竞争格局就会改变。

主持人:但你刚才说的是“美国”,不是OpenAI本身。我感觉你其实在指某种更具体的东西?

Sam Altman :我认为美国目前没有一个真正可信的整体计划,除了“AI + 机器人”这个方向来追赶。

主持人:你刚刚提到“棋子”,是不是最近看到了什么?

Sam Altman :不是,我只是指“通用机器人”。

主持人:明白。

鸡生蛋、蛋生鸡:没有硬件就很难做软件;

没有足够强的软件,硬件也很难发展

Greg Brockman:我觉得机器人领域一直存在一个典型的鸡生蛋、蛋生鸡的问题:没有硬件就很难做软件;没有足够强的软件,也很难推动硬件发展。如果你没有一个伟大的“大脑”,就很难有动力去开发硬件。我们2018年就遇到过这个问题。还记得那个机器人手项目吗?

主持人:当然记得,很酷。

Greg Brockman:那个手是用强化学习训练的,算法和我们做游戏AI的是同一套。但问题是,这个机械手运行大约20小时后,作为“肌腱”的线会断掉,然后工程师要停下来修理,整个系统效率极低。你会发现,这种方式根本没法做机器学习系统。所以我们最后取消了那个项目,那些人后来去了GitHub Copilot团队。

这也说明软件进步的速度远远快于硬件。

我认为我们现在已经到了这样一个阶段,我们已经有很强的通用算法,如果能把它们应用到物理世界,硬件开发的方式会完全不同。所以我认为这确实存在变革的潜力,但需要国家层面的意志力。

Sam Altman :我同意你的观点,如果没有这种方向,当前轨迹确实不太乐观。

主持人:他说服我了。

智能体时代:Agent平台、应用场景以及个人AGI

主持人:回到一个更整体的问题。机器人、模型,这些都是你们真正关心的方向。但最近有报道称你们在做整合和收敛。我很好奇,观众也一定想知道:现在到底在做什么?砍掉了什么?你们真正重视什么?为什么要做这些调整?为什么这很重要?

Sam Altman :在Greg回答之前我先说一句背景。

Greg现在主要负责我们整体产品方向的统一,以及研究支持体系的设计。这件事在公司内部其实非常令人兴奋、氛围很好。但也确实意味着一些产品发布会稍微慢一点,因为他才上任几周左右。

主持人: 对,而且你能展开讲讲吗?比如几周前你接手时,其实一些调整已经在进行了,对吧?但你现在是全面重新评估了一遍。

Greg Brockman: 我其实一直在幕后深度参与OpenAI的很多部分,所以现在走到台前负责这一块,算是最近的变化。有个有趣的事实是,我当年还做过第一版API。所以可以说从OpenAI开始做产品起,我就一直在做产品,也一直非常重视这一块。我们一开始其实低估了产品对使命的重要性,但一旦真正开始做产品,就会意识到它有多关键,这也是我一直深度参与的原因。

我们现在所处的阶段是:已经明确进入智能体时代。这是毫无疑问的。如果你在软件工程领域,过去6个月应该已经感受到了这个变化。从最初的“自动补全”,到编辑器里的侧边栏助手,再到现在,你真正需要的是像Codex这样的“Agent管理平台”。这些Agent会处理所有细节、所有繁琐工作,而人类大概只需要负责20%的部分,比如整体结构、架构设计这些高层决策。代码细节?交给Agent就好。

接下来的问题是:我们如何真正抓住这个时代?而且这不仅仅是软件领域,我们已经看到了它在各个垂直领域的应用路径,比如法律、金融,以及写文档、做表格、做演示这些“机械性技能”。要让模型在这些领域变得非常强,就需要和领域专家合作,构建评估体系、训练数据,让AI在真实任务中积累经验,逐渐学会“什么是好的结果”。

我们其实已经有实现路径,但关键在于:要构建一个合适的产品形态来释放这些能力。一个重要变化是模型已经从“产品本身”变成了“产品的一部分”。过去模型上面只需要一层很薄的软件,现在则需要一个非常厚的软件层:包括技能系统、连接器、如何接入电脑操作、如何管理上下文和记忆等等。这一整层软件,其实可以理解为AI的“身体”,而模型是“大脑”。两者都很难,而且必须一起设计。

所以我们当前的重点有三个:

第一,打造一个强大的Agent平台,这是我们最核心的优先级。团队执行得非常好,接下来几周会发布一些让我非常兴奋的东西。

第二,是Agent具体应用在哪些场景。我们的重点是“计算机工作”。我特意不用“知识工作”这个词,因为没人会觉得自己是“知识工作者”。但“计算机工作”很直观,你会发现自己每天大量时间都在电脑前,被“拴在桌子上”,打字、弯着腰、甚至搞出腕管综合征。其实没人真正想做这些事。所以我们要让像Codex这样的工具,不只是程序员用,而是让所有人都能用,而且这件事很快就会发生。我们甚至在这期播客录制当天就会有一些更新,后面还有很多令人兴奋的进展。

第三,是“个人AGI”。现在ChatGPT已经有十亿用户,但未来每个人都需要一个真正代表自己的AI:它理解你的上下文,与你建立信任,不只是和你对话,还能替你去行动。比如它知道你喜欢某个音乐人,发现对方来你所在城市演出,而且有便宜好票,它可以直接帮你买票。如果它足够了解你、信任关系足够强,它甚至可以在不打扰你的情况下直接行动;如果不确定,它也可以先询问你。

这些方向其实是一个整体的不同表达。最终,你想要的不是一个语言模型,不是对话线程,也不是各种复杂细节,你想要的是一个真正帮助你的系统:能代表你行动,理解你的目标,在工作和生活中帮你解决问题。这就是我们现在在优先构建的东西。

所以,对我来说一个重要的问题是:大家常问我们怎么区分“消费者”和“企业”。如果按今天的定义来说,我们当然都很重视。但我觉得这些概念会逐渐模糊甚至消失。因为我们正在释放一波新的创业浪潮,已经能看到一些苗头,小团队可以获得以前不可能的巨大收入,这种趋势只会加速。这到底算企业还是消费?其实都不是。所以我们的核心视角是:在各种场景中帮人实现目标,而不是被传统分类束缚。这也意味着,我们必须降低优先级甚至砍掉一些本身也很优秀的项目。

Sora 被砍掉:和我们核心的GPT系列并不统一

主持人:所以Sora 被砍掉了

Greg Brockman: 对,最明显的就是Sora。

主持人: 为什么?

Greg Brockman: 因为它属于技术树的另一条分支。驱动Sora的模型和我们核心的GPT系列并不统一,其应用场景也不完全一致。它更多是偏向创意表达,这当然很重要,团队也做得非常出色,这项技术未来也会在其他场景继续存在。但我们现在更关注的是:未来3个月、6个月、12个月我们要交付的产品体系。

而且我刚才讲的那些,其实只是第一步。我们已经看到了更强模型的路径,比如我们在数学领域的进展,我刚提到解决某个新问题,这其实是非常惊人的突破。就在大概两年前,大家还都在用 GPT-4 Pro 这类模型。我们以前去训练模型, 要让模型参加计算机奥林匹克,需要一个20人的团队训练两周,还要大量算力,最终只拿了铜牌。而现在,一个相对“随意”训练的模型,就可以被用来解决类似问题。那如果把这样的能力用到药物发现呢?如果真的投入资源去推动科学研究呢?这些潜力现在还没有被市场真正计价。

所以我们现在是在抓住“Agent时代”的机会,确保产品投资结构清晰,让各个模块可以很好地协同,比如连接器、组件组合等等。同时,我们也在构建一个生态:不仅是我们自己做什么,还要让开发者、创作者都能构建自己的Agent。你可以把Codex看作一个“示例Agent”,但未来任何人都可以为自己的需求打造Agent,比如针对特定数学问题、特定应用场景。

商业不是限制:没有强大的营收机器,就没有今天的算力

主持人: 既然聊到这,我得插一句。一部分原因可能是因为你们不得不砍掉 Sora 来换取算力?有报道说它占用了大量算力。

Greg Brockman: 这个领域里任何成功的东西都会消耗大量算力。

主持人: 你们两位,特别是你们和 Ilya 等人,以早期就在算力投入上“全押”而闻名。现在你们必须做出非常艰难的决定,要服务所有客户,还要赚钱,因为你们花费巨大。你们天生就是要做最大赌注的人,但现在在某种程度上受到商业约束。这听起来非常困难。我觉得这不太符合你们的天性,你看起来持怀疑态度。

Greg Brockman:这是一种奇怪的说法,我不觉得这是“限制”,反而是“赋能”。正是因为有商业收入,我们才能扩大算力规模。我记得当初发布ChatGPT后,我们就在讨论要买多少算力,我当时的想法是:全部买下来,因为需求太明确了。正是这个商业模式,让我们有能力去获取更多算力。

Sam Altman :我认为,如果没有这台强大的营收机器,我们将无法说服任何人我们应该得到这一切

算力是利润中心:我们只管继续建更多算力

主持人: 但当看到关于“星门”(Stargate)之类的报道时,大家得到的印象是你们在缩减基础设施。我不清楚这是从哪来的。

Sam Altman : 我不知道这种说法从哪来的。确实在具体项目上会有取舍,比如某个数据中心条件不够好,我们会选另一个更合适的。但媒体总喜欢讲“收缩”的故事,很快又会变成“OpenAI太激进、花钱太疯狂”。”媒体总是会跳来跳去,因为他们需要写点什么。我们会继续尽可能地构建更多的算力

Greg Brockman: 还有一点很重要,对我们来说,算力不是成本中心,而是利润中心。我们本质上是“买或租算力,然后以更高价格提供给用户”。只要有正利润率,这个模式就可以无限扩展,因为需求几乎是无限的。

OpenAI投入:自研芯片、机器人、超级应用

主持人:好的,所以数据中心硬件还是全速推进?是指你们自己的芯片吗?

Greg Brockman: 是的,我们对自研芯片非常非常兴奋。我们拥有一支令人难以置信的团队。关于时间线,我们当然不谈论这个,但我会说我花了很多时间和那支团队在一起,我认为他们做得非常出色。

主持人:所以,机器人项目是“全面推进”的状态。

Sam Altman :虽然离那种“ChatGPT时刻”还需要一段时间,但我们确实在那个项目上投入了资源。社交机器人目前不是我们的重点,但未来显然非常重要。

主持人:还有社交网络?

Greg Brockman:没多少人这么做。

主持人: 还有就是那个“超级应用”、浏览器之类的东西,一切都还在推进中。

Greg Brockman:是的。有一件事关于超级应用需要明白,我觉得它是那种听起来很吸引人的词。

主持人:我以为是你们提出来的。

Greg Brockman: 没错。需要意识到的是,有时我们是在进行内部沟通,而这些信息最终传向了全世界,两者意图并不相同。“超级应用”在很多方面就像是一座冰山。是的,我们将拥有一个应用程序,你会看到目前的 Codex 应用程序的更新,让它成为“面向每个人的 Codex”。我们距离目标还有很多步骤,但其核心在于我们正在构建我之前描述的那种统一的智能体基础设施,这将是解锁人们想做的每一件事的关键。

OpenAI 还是 Anthropic:仅从当下难判断

主持人: 你们经历了很多波折,有时放慢了节奏,而且还有法律诉讼……那么,你认为过去两年哪家公司执行得更好:OpenAI 还是 Anthropic?

Greg Brockman: 听着,我觉得仅从当下很难判断。我认为我们必须退一步,想想我们聚在这里到底是为了什么。从 OpenAI 的角度来看,我们讨论的这些问题,比如向企业销售、弄清楚如何真正交付这些编程工具,竞争确实能提升你的思维,让你意识到“嘿,我们需要关注这一点”。在编码方面,一个例子是,我认为我们加入得晚了,不仅是构建在抽象层面表现良好的代码模型——虽然我们在编程竞赛中一直有最好的数据,但你还需要将它们应用于混乱的代码库、真实世界数据等场景。

我认为这是我们比 Anthropic 更晚意识到的地方,所以要给他们点赞,但也正是这点提升了我们自己的执行力。现在在 Codex 与 Claude 的直接较量中,我认为我们的结果非常有利。我们的团队在全公司范围内做得非常出色,构建的产品不仅具有竞争力,而且在许多方面实际上处于领先地位。但我认为核心永远不是新闻周期的起起落落,而是迈向 AGI 的进程,确保它造福每个人。这是我们一直极度关注的,团队执行力非常强。所以我想说,从外界是很难看明白全貌的。但回想一下我们聊过的内容就知道,我们是有明确聚焦方向的,只是在不同的时间维度上推进,最终汇聚起来,抵达我们想要的目标。

Mythos 与“基于恐惧的营销”

主持人: 我们触及了一个话题:让大量模型掌握在大量人手中,拥有强大的技术。但我们现在到了一个地步,即有些模型太强大了,被告知它们只能由某些公司掌握。Claude 和 Mythos 在头条新闻中引起了很多关注,我想到了更多的恐惧。你们怎么看这个新阶段?我们是否到了需要开始将这些强大的模型隐藏在幕后,而不是让每个人都能接触到的地步?

Sam Altman : 世界上一直有人想把 AI 掌握在少数人手中。你可以用各种不同的方式来证明这一点,其中一些是真实的,比如确实会存在合法的安全担忧。但是,如果你的真实意图是“我们需要控制 AI,因为只有我们是值得信赖的人”,那么基于恐惧的营销可能是最有效的辩解方式。这并不是说在某些情况下这不是合法的,但说“我们制造了一枚炸弹,即将扔到你们头上,我们会以一亿美元的价格卖给你们一个防空洞,你们需要用它来保护所有东西,但前提是我们得选你作为客户”,这显然是一种不可思议的营销手段。

我们看待平衡这些新能力的方式,仍然基于我们的信念:世界需要获取、使用、理解并为这项技术想出新点子,这并不容易。我们的准备框架中长期都有“网络安全”这一项,我们一直在构建防御措施来搞清楚如何发布模型,如何把模型交到受信任的访问项目中,以及如何再把能力更强的模型交给所有人。但关于“太危险而不能发布”的模型的言论会越来越多。也会有非常危险的模型必须以不同的方式发布。但正如 Greg 所说,这里的目标是造福所有人,我不希望将其“推销化”,而是让世界和我们一起踏上这段旅程,我们会提供更强大的技术,伴随而来的是责任。我们会尽全力帮助世界取得成功,并尽量避免这种基于恐惧的营销。

主持人: 我直接问你,你觉得 Mythos 只是营销噱头吗?

Sam Altman 我相信它在网络安全方面很棒,再次重申,我们长期以来一直在讨论这个问题。这已经在我们的模型中体现了,只不过换种说法就是,我们这边的思路是:这些模型在网络安全方面会变得更好。我们有准备框架类别,这是我们向世界部署这些模型的计划,这是我们的受信任访问项目,这是我们在模型上设置的防御措施。我想 Anthropic 的准备框架里并没有把这作为一个类别。所以,我相信 Mythos 是一个很棒的网络安全模型,但我们有一套我们对自己发布此类能力的方式感到满意的计划。

Anthropic 没有得到公平对待

主持人: 当 Anthropic 和国防部的事情发生时,在我看来,好像有 David Sachs 和那些与 Elon 有长期联系的人在施压,让政府关注这件事。你们紧随其后就有了自己的公告,看起来更有利。Elon 对你们也很激进。这很有趣,好像你们和 Anthropic 其实是一边的,而 Elon 甚至 Zuck 在某种程度上是在给事情施压。你觉得 Anthropic 被公平对待了吗?

Sam Altman 不。我觉得那里有很多糟糕的行为,但我认为 Anthropic 没有得到公平对待。

主持人: 你能详细解释一下哪里不对劲吗?

Sam Altman 随着后来发生的这些模型达到网络安全阈值的事情,这显然涉及国家安全利益。我觉得整件事的性质就有点不一样了。但像威胁要使用《国防生产法》(DPA)并实际使用供应链风险指定,我不认为这是我们政府和 AI 努力之间应有的关系。我们非常关心支持美国政府,随着模型能力增强,这将变得越来越重要。我也肯定不认为对 AI 实验室来说,表现出“我们有超级武器,顺便说一句,我们不会与你合作来保护国家”这种立场是好的。但我也不认为政府应该在媒体上公开争斗,并使用那种应该非常谨慎使用的“大锤”。OpenAI 的态度通常是温和、中立和理性的,我们试图与美国政府保持这种关系。

但在我看来,不存在一种好的未来:在那个未来里,领先的AI机构不去协助美国政府。如果我们说的每件事都是对的,如果我们相信关于模型未来发展的判断是对的,而我确实相信是对的,那么政府将需要我们的帮助,而我们也很荣幸能够提供这种支持。

集体胜利而非个人意识形态的胜负

主持人: 作为一名科技记者,我算老资历了。我刚开始写科技报道时,大战争基本是微软对战所有人。而当时那家公司是大型的邪恶的专有软件公司。另一边有开源公司反抗,有 Mark Andre 和 Netscape。事情在媒体上发酵,偶尔有口角,人们有哲学或宗教派系之分。显然,我们现在在 AI 领域的情况简直疯了。这其中很大一部分似乎与你们、Elon、Zuck、Dario、Demis 的个人性格以及各种敌意和世界观有关。你写过这种莎士比亚式的戏剧。我们怎么可能跨越过去?我看不出出路,而且正如我们提到的,有场诉讼要来了。这只会……我很遗憾地说,让大家更难在舞台上握手言和。

Sam Altman其中一些参与者只相信自己是对的,因为他们认为赌注是无限大的。因为不同的原因,他们认为别人做不好,或者不想让别人做。这导致了一些非常有害的行为。我们无法控制别人的行为,但我们将继续倡导将此作为全人类必须共同完成的集体项目,而不是关于某个人或某种意识形态的胜负、或者某种“灵魂的胜利”之类的东西。

Sam 最糟糕的一周:我其实并不想站队

主持人: 如果我们不提这一周发生在你个人身上的事,那就太失职了,我知道这非常敏感,但……如果你看看你个人过去一周的遭遇,有很多科幻小说写的就是当那些真的不想看到技术进步的派系出现时会发生什么……事情变得更加极端。有一种论点认为,随着那些想要叫停的人出现,这个开关现在正在被拨动……

Sam Altman :和那些想要停止的人在一起。

主持人:是的。我是说,我很多年前读过理查德·克拉克(Richard Clarke)的那本书,里面有一个类似比尔·乔伊(Bill Joy)式的人物,他认为AI不能被允许存在,然后到处去破坏数据中心。这些情节其实早就一直存在了。只是现在感觉:天啊,我真的看不出来局势还能再怎么升级了。所以,这一切并没有让我觉得事情在变好。

Sam Altman :我觉得局势肯定会时好时坏、来回反复,但整体趋势只会越来越紧张。

主持人:这一定就像你写的那样。我的意思是,这显然一定很可怕。

Sam Altman :是的。我觉得我在这里也没有什么特别深刻的观点可以说。那天早上醒来真的很震惊。第一天我基本上处在一种肾上腺素飙升、受冲击的状态,一直在试图处理各种实际的事情、搞清楚具体的安排。到了第二天,我就开始觉得,类似这种事情以后还会发生,而且这件事本身也非常令人沮丧。我确实经历了一段比较明显的情绪低谷。

但这确实很可怕。是的,我也觉得没什么特别“深”的结论可以总结。我觉得那种“末日论式”的讨论其实并没有起到帮助作用。而且我觉得,其他一些实验室对我们的评价和说法也没起到好作用。

我其实并不想站队。我觉得 Anthropic 对 OpenAI 的那些说法也于事无补。

我只希望能冷静下来

Greg Brockman:有一点我还是想说,说到底,我们无法控制别人,只能管好自己。在这段时间里,有一件事让我深感敬佩、也十分震撼,那就是山姆的表现。即便在事发当天,他依然在处理那些必须由他亲自出面的事务,始终坚持推进任务。我完全不觉得这是理所应当的。

Sam 所展现出的韧性与抗压能力,真的极其强大,而且我认为这一点远远没有得到应有的重视。

主持人:我也有同样的感受。我不太认同那种“你在放轻松”之类的说法。

我很难想到在过去三年里,有哪个人经历过比他更戏剧性的商业和个人层面的起伏,整个叙事相当戏剧化。当然,人们可能不会那么同情,会说“你不会得到同情的”。那也没关系。 

Sam Altman :这件事发生的前一晚我还说过,当时我家里有一些人来吃饭,是一些工作上的同事。我们在聊下一阶段的发展,他们说:“你这段时间在媒体上确实挺难熬的,但某种程度上也算是好事吧。”我当时就说:“嗯,至少还没有人试图杀我。”

但这件事确实让我重新放在一个更大的视角里来看问题:人们可以说各种难听的话,但只要他们只是停留在“说难听的话”这个层面,那其实真的没那么严重。你还是可以继续往前走的。

让所有人共享技术

主持人:你总是跟我说你的梦想是退休后住在纳帕谷。那既然这样,为什么不呢?

Sam Altman :我们还有很多工作要做。

主持人:但就像有人会得到它一样,很明显现在有人会率先达到 AGI 了。我们找到了大约五家能够胜任这项工作的公司。

Sam Altman :你最希望哪家公司率先实现这一目标?

主持人:事情最后就是这样吗?

Greg Brockman:不,并不是那样。关键在于,大家真正忽略的一点是:我们该如何让普通人切实明白,这项技术能为他们带来什么

而我认为,这是每家公司都可以为之努力的事,对吧?这也是我们一直以来的观点。我们在这期播客里已经聊了很多。但从根本上说,我觉得这也是所有研发这项技术的人应负的责任不仅要做出技术,还要展示它的价值,让人们真正愿意接纳它。

要让人们明白:为什么应当支持并守护这项技术的研发?为什么美国需要在这一领域保持领先?这一切不仅对国家有利,对每个人自身、对自己的未来、对孩子的未来又意义何在?可以说,我们每天醒来想的都是这件事。毫不夸张地讲,我们时刻都在讨论这些问题。

无论是公司奇特的创新模式,还是法律架构设计,我们多次作出尝试,都是为了实现这项我们认为无比重要的使命。如果其他人也愿意为此出力,那自然越多越好,这本该是所有人共同努力的方向。而这份信念,也成了独属于我们的核心动力。

Sam Altman :我们深信,如果我们能推出一项技术,让所有人都能共享繁荣,让人们对自己的未来拥有更多主动权,那么即便过程会有波折与起伏,最终也必将通向一个更美好的世界。并非所有这个领域的从业者都抱有这样的信念,但只要是认同这一点的人,我们都非常乐意与之合作。而这,正是我们想要推动世界走向的使命。

被断章取义的材料:马斯克的极端要求

 主持人:我想我们还有时间去问几个问题。你如何看待这场审判,这其中存在着怎样的意义?

Greg Brockman:我其实认为,这对我们来说是一个真正讲清楚我们自身故事的机会。如果回顾 OpenAI 的发展历程,你会发现,当出现分裂和争议时,我们往往让“另一方的叙事”占据了主导,而我们自己一直尽量避免去说“事情其实不是那样的,让我们来讲事实”。

但这一次,我们终于没有选择,只能站出来为自己辩护,把真实发生的事情讲清楚。

我也花了很多时间回顾历史,看了很多不同的内部信息。当然,你总能找到一些片段去“选择性引用”,然后说“你看,这就是证据”。比如那些著名的日记内容,我知道它们被反复提及。但问题是,这些内容都是被断章取义的。更重要的是,那些本来就是非常私密的文件,被以一种非常痛苦的方式公开出来,然后又被尝试用作攻击的工具。

但即使如此,你会发现,那些所谓“最糟糕”的材料,其实已经是对方能拿出来的最强论据了。说实话,你会觉得:就这些吗?

而更关键的是,当你把这些片段放回完整语境中去看,会发现事情完全不是那样。比如在那段谈判过程中,当时大家其实已经达成一个共识:OpenAI 最终需要走向某种营利结构这一点我们、Sam、Ilya、Greg、Elon,其实都曾经达成一致。

但之后在谈判中,要求开始变得越来越极端:更高的股权比例、CEO 位置、以及最终的绝对控制权。

我们一度甚至尝试各种折中方案:好,如果这是你需要的,我们可以调整结构;可以讨论CEO安排;可以尝试让各方都参与进来。比如说Sam可以当CEO,Elon可以当CEO,他需要让所有人知道他是负责人,这也可以。

但最终的分歧点在于“绝对控制权”。哪怕是临时的、未来可调整的控制权,本质上也意味着一个人掌控整个系统的未来。

而对我们来说,核心问题一直是:我们是否真的相信我们的使命?我们是否真的相信,这项技术应该服务于所有人,而不应该由某一个人来完全控制未来?

无论这个人是谁,这一点都是不可接受的。那就是最终的分界点。但这个故事我们很多年都没有完整讲过,而现在我们会把它讲出来。

因为我认为,这确实是一个机会,让人们更清楚地理解我们真正的动机,以及我们真正坚持的东西。

Sam Altman :他现在这么做,我觉得简直不可理喻。但我现在甚至担心他在庭审前撤诉,那我们就没机会把这些讲清楚了。不过我还是很愿意向全世界说明这一切,让这段往事彻底翻篇。

技术路径:从“聪明但危险”到“有用且乐观”

主持人:回到这个播客一开始的话题,就是你刚才说的那个叙事。我感觉作为AI记者,我一直在听“我们都会死、我们都会失业”这种说法,一遍又一遍。现在你的部分私人笔记也被公开了。我想问,如果回到2020年,你会换一种怎样的方式去谈论这些事

Greg Brockman:我觉得今天我们理解这件事的方式,其实在某种意义上,是我希望我们当初就能这样讨论的方式,但我不确定在当时掌握的信息条件下我们是否真的能做到。

举个例子,这其中甚至和技术路径本身有关。在2017、2018年的时候,我们曾经设想过一种构建AGI的方式:通过一个竞争性的多智能体模拟系统。你可以想象一个“岛屿”,上面有一千个智能体,它们彼此竞争生存和繁衍。你会看到,如果投入足够多的算力,也许最终会产生一个非常聪明的系统。但那个聪明的系统,与人类价值观完全没有任何连接。你需要再额外加一层步骤,去解决“我们如何与这个系统沟通”的问题。

它完全没有在真实世界中成长,也没有语言的自然起点,更没有和我们的现实建立任何关联,它只是“聪明且强大”。这样的系统本质上是非常令人担忧的,你必须从一开始就思考如何对齐它。

但后来我们走向了另一条路径:语言模型的路线。它本身建立在人类语言和人类数据之上,某种程度上更贴近人类价值体系,也更容易理解人类。再加上链式思维等方法,你甚至可以在一定程度上进行监控,使模型的推理过程更可解释、更可对齐。

从技术角度看,这提供了一条完全不同的路径来实现我们所讨论的目标而且是一条更加乐观的路径。所以我认为,我们后来才逐渐理解到:这项技术到底会变成什么样?它是如何被构建的?如何才能让它真正变得有用?这些是我们当时无法完全理解,但今天已经更清楚的事情。

主持人:这次讨论非常有意思,也很感谢你们两位一起来参加这个节目。我们虽然聊了很多,但核心信息是:在相对短的时间内,新模型真的变得非常强大。

Sam Altman :是的。非常好的新模型。

主持人:谢谢你们。

Greg Brockman:新模型会对所有人都有用。

主持人:我们下次再见。

本文来自转载51CTO技术栈 ,不代表发现AI立场,如若转载,请联系原作者;如有侵权,请联系编辑删除。

(0)
资讯组小编的头像资讯组小编
《季载录·春丨Xsignal 全球AI应用行业季度报告丨2026》丨万字长文丨Xsignal深度文章
上一篇 1小时前
GLM-5.1、Qwen 3.6 Max preview 与 Kimi 2.6 国产大模型横向对决
下一篇 1小时前

扫码关注我们,了解最新AI资讯~

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注