奥特曼回应一切:GPT-5、董事会宫斗、Ilya当时看到了什么

机器之心报道

机器之心编辑部

今年2月随着Sora的横空出世,大家再一次把目光聚集到OpenAI。

不仅如此,去年亮相的ChatGPT、GPT-4,更是把AI直接带入到生成式人工智能领域。作为一家引领科技潮流的机构,大家自然对其方方面面都产生好奇。

在最近的一次采访中,美国知名播客LexFriedman再次邀请OpenAI首席执行官SamAltman进行专访。专访时间长达两个小时,对话中SamAltman透漏了几个大家比较关心的问题。

SamAltman坦言,OpenAI的「董事会风波」让他很痛苦,甚至在一段时间内他都处于神游状态(fuguestate),整个事件持续了好几天,过程跌宕起伏,让Sam倍感疲惫,Altman表示这可能不是OpenAI最后一个高压力时刻。整个事件中,Sam高度赞扬了MiraMurati出色的表现。他认为OpenAI面临的挑战之一是必须拥有一个善于在压力下运作的董事会和团队。此外董事会增补了一些经验更丰富的成员。

关于Ilya,SamAltman表示他非常尊重并欣赏Ilya,希望未来的工作生涯都能和他合作,并回应道:「Ilya并没有看到通用人工智能,但Ilya是人类的功臣。关于安全问题Ilya想了很多,也担心了很多。」

SamAltman还对马斯克批评OpenAI的事情给出了自己的看法:「对于许多根本性的新事物来说,你开始在黑暗中摸索,并做出一些假设,结果会发现大多数假设都是错误的。我们进行了一些修补,最后的结果至少可以说是让人瞠目结舌。」他认为马斯克也会对此有很多共鸣。

谈到Sora时,Altman表示非常乐观,但是将Sora理解为一个底层三维世界模型,是有点牵强的,此外,他还提到了Sora的局限性。但当记者问到细节和数据时,Altman没有透漏更多有用的信息。

在Altman眼中GPT-4还是很糟糕的,他预计5和4之间的差值将与4和3之间的差值相同。

访谈中,当记者问道Q*是个什么项目时,SamAltman表示自己还没准备好回答这个问题,但他透漏了AI系统下一步发展计划是进行更好的推理。OpenAI现在采用迭代部署的方式进行研发,而不是秘密进行直到完成GPT-5才公布,他们的目标不是给世界带来震惊性的更新,恰恰相反,OpenAI希望自己研发的成果不会给人一种跳跃式的发展趋势,如果那样的话,OpenAI会更加快速迭代地发布他们的产品。SamAltman表示GPT-5之类的研究或许采用一种不同的发布方式。

SamAltman:我的意思是,在我看来是的,但我们还有更多工作要做。

记者:当然。有什么危险?为什么担心发布系统?这可能存在哪些危险?

SamAltman:坦白说,在发布系统之前我们必须做的一件事就是让它以一定的效率运行,从而达到人们想要的规模。我不想淡化这一点,那里还有大量工作要做。但你可以想象深度造假和错误信息带来的问题。我们努力成为一家深思熟虑的公司,对我们向世界推出的产品深思熟虑,并且不需要太多思考就可以知道这种情况可能会变得糟糕。

记者:这里有很多棘手的问题,你面临着一个非常艰难的空间。你认为训练人工智能应该属于版权法下的合理使用吗?

SamAltman:我认为这个问题背后的问题是,创造有价值数据的人是否应该通过某种方式获得使用数据的补偿,我认为答案是肯定的,只是还不知道答案是什么。人们提出了很多不同的建议,我们尝试了一些不同的模型。

记者:是的,这就是从CD到Napster再到Spotify的转变。我们必须找出某种模型。

SamAltman:模式发生了变化,但人们必须得到报酬。

记者:好吧,如果我们进一步缩小范围,让人类继续做很酷的事情,就应该有某种激励。

SamAltman:在我担心的一切中,人类会做出一些很酷的事情,而社会会找到一些方法来奖励它。我们想要创造,我们想要成为有用的人,我们想要以任何方式获得地位。我认为这不会有什么结果。

记者:但奖励可能不是金钱上的。这可能是其他的名誉和庆祝——

SamAltman:或许可以通过其他方式实现财务方面的目的。再说一次,我认为我们还没有看到经济体系如何运作的最后演变。

记者:是的,但艺术家和创作者很担心。当他们看到Sora时,他们会说「天哪」。

SamAltman:当然。当摄影出现时,艺术家们也非常担心,然后摄影成为一种新的艺术形式,人们通过拍照赚了很多钱。我认为类似的事情还会继续发生。人们将以新的方式使用新工具。

记者:如果我们只看YouTube或类似的内容,你认为在未来五年内,其中有多少内容将使用Sora等人工智能生成的内容?

SamAltman:人们谈论人工智能在五年内将完成多少工作。他们的框架是,目前的工作中有多少比例将被人工智能完成的工作完全取代?但我思考的方式不是人工智能将完成多少百分比的工作,而是人工智能在一段时间内将完成多少百分比的任务。

因此,如果你想到经济中所有的五秒任务、五分钟任务、五小时任务,甚至五天任务,人工智能可以完成多少任务?

我认为这是一个比人工智能可以做多少工作更有趣、更有影响力、更重要的问题,因为它是一种工具,可以在越来越复杂的水平上工作,在越来越长的时间范围内完成越来越多的任务,并让人们以一种更灵活的方式进行操作。所以也许人们的工作效率会更高。

记者:是的,这很有趣。我的意思是这很可怕,但想想很有趣。我倾向于相信人类喜欢观察其他人类或其他人类。

SamAltman:人类确实非常关心其他人。

记者:是的。如果有比人类更好的更酷的东西,人类会关心它两天,然后他们就会回到人类。

SamAltman:这似乎非常紧密。

记者:这就是国际象棋的故事,「哦,是的」,现在让我们每个人都继续下国际象棋。让我们忽略房间里的大象,相对于人工智能系统,人类在国际象棋方面确实很糟糕。

SamAltman:我们仍然参加比赛,汽车的速度要快得多。我的意思是有很多例子。

GPT-4

记者:让我问一下有关GPT-4的问题。现在回想起来,ChatGPT的第3、4、5可能就是历史性的关键时刻。

SamAltman:也许5将是关键时刻。我不知道。很难说期待。

记者:我们永远不会知道。但对我来说,回顾过去,GPT-4、ChatGPT非常令人印象深刻。那么请允许我问一下,您对GPT-4、GPT-4Turbo印象最深刻的功能是什么?

SamAltman:这是一件了不起的事情,但相对于我们需要达到的目标以及我相信我们将会达到的目标,还是糟糕的。

在GPT-3时代,人们会说,「哦,这真太了不起了。这是技术的奇迹」。确实如此,曾经如此。但现在我们有了GPT-4,再看看GPT-3,你会想,「这太可怕了」。我预计5和4之间的差值将与4和3之间的差值相同。

记者:GPT-4最糟糕的地方是什么?

SamAltman:它能做的最好的事情是什么?

记者:它能做的最好的事情是什么?这些最好的事情的局限性是什么?

SamAltman:我最近使用它的一件事是有点像集思广益的伙伴。其中有一丝令人惊奇的东西。当人们谈论它、它的作用时,他们会说:「哦,它会帮助我更高效地编码。它帮助我写得更快更好以及从将这种语言翻译成另一种语言」所有这些令人惊奇的事情。

但是有一些关于创造性头脑风暴合作伙伴的东西,「我需要为这个东西想一个名字。我需要以不同的方式思考这个问题。我不知道在这里做什么」,正是这些让我看到了一些我希望看到更多的东西。

你可以看到的另一件事是,我可以被帮助完成长期任务,分多个步骤分解某些内容,也许执行其中一些步骤,搜索互联网、写代码,无论如何,把它们放在一起。当这种方法奏效时(这种情况并不常见),那就非常神奇了。

记者:与人的反复交流对我来说非常有效。这是什么意思?

SamAltman:当人类可以自己解决10步问题时,它可以更频繁地来回迭代。有时它并不经常起作用。

记者:添加多个抽象层还是意味着只是顺序的?

SamAltman:两者都是,将其分解,然后通过不同的抽象层将它们组合在一起。我不想低估GPT-4的成就,但我也不想夸大它。我认为我们正处于指数曲线上,我们很快就会回顾GPT-4,就像我们现在回顾GPT-3一样。

记者:也就是说,ChatGPT是一个过渡,让人们开始相信信念有所上升,而不是在OpenAI内部。

SamAltman:当然。从这个意义上说,我确实认为这将是世界上很多人从不相信变成相信的时刻。这更多是关于ChatGPT界面的。通过界面和产品,我还指的是模型的后期训练,以及我们如何调整它以对你有所帮助,以及如何使用它而不是底层模型本身。

记者:这些事情有多重要?底层模型和RLHF或类似性质的东西可以对其进行调整,使其对人类更具吸引力,对人类来说更加有效和富有成效。

SamAltman:我的意思是它们都非常重要,但是RLHF、训练后步骤、从计算角度来看的事情的小包装、我们在基本模型之上所做的事情的小包装尽管这是一项巨大的工作量,但这确实很重要,更不用说我们围绕它构建的产品了。

从某种意义上说,我们确实必须做两件事。我们必须发明底层技术,然后我们必须弄清楚如何将其变成人们喜欢的产品,这不仅仅是实际的产品工作本身,而是如何调整它并使其有用的整个其他步骤。

记者:以及如何让秤在很多人可以同时使用的情况下发挥作用。

SamAltman:还有那个。但这是一件众所周知的困难事。我们知道我们必须扩大规模。我们必须去做两件以前从未做过的事情,我想说这两件事都是相当重大的成就,然后是很多其他公司以前必须做的事情,比如扩大规模。

记者:从GPT-4到GPT-4Turbo,从8K到128Ktoken的上下文窗口有何不同?

SamAltman:大多数人大多数时候并不需要一直调到128。尽管如果我们梦想到遥远的未来,我们将拥有遥远的未来,我们将拥有数十亿的上下文长度。随着时间的推移,你将输入所有信息、所有历史记录,它会越来越了解你,这非常棒。目前,人们使用这些模型的方式并没有这样做。人们有时会发布论文或代码存储库的重要部分,无论如何,但模型的大多数使用在大多数情况下都不会使用长上下文。

记者:我喜欢你的「我有一个梦想」演讲。有一天,人们会根据你的性格或你一生的全部背景来评判你。那很有意思。所以这是你所希望的扩展的一部分,是一个越来越大的背景。

SamAltman:我看过一次这个互联网剪辑,我会把数字弄错,但这就像比尔・盖茨谈论某些早期计算机上的内存量,也许是64K,也许是640K。其中大部分用于屏幕缓冲区。他只是看起来不太真诚,只是无法想象世界最终会需要计算机中的千兆字节内存或计算机中的兆字节内存。只需要遵循技术的指数,我们就会找到如何使用更好的技术。所以我现在真的无法想象有一天上下文长度会达到十亿个。我知道我们会使用它,而且一旦我们拥有它,我们真的不想再回去了。

记者:是的,即使说10年后的数十亿也可能看起来很愚蠢,因为它将是数万亿美元。未来将会出现某种突破,感觉就像是无限的上下文。但即使是120,说实话,我也没有把它用到那个程度,比如放入整本书或部分书籍、论文。你见过哪些有趣的GPT-4用例?

SamAltman:我发现最有趣的事情不是我们可以谈论的任何特定用例,事实上,它可以很好地完成很多事情。你可以使用GPT-V,用它来帮助你写代码、做搜索、编辑论文。对我来说最有趣的是那些只是使用它作为工作流程开始的人。

记者:我在很多事情上也是这样做的。我用它作为看书的阅读伙伴。它帮助我思考,帮助我思考想法,尤其是当书籍是经典的时候。我发现它在涵盖广泛的主题上通常比维基百科要好得多。它在某种程度上更加平衡和更加细致,激发了我比维基百科文章更深入的思考。我不太确定那是什么。

当我开始使用GPT时,我对知识任务的担忧之一是我通常必须在之后进行事实检查,例如检查它是否提出了虚假内容。你怎么知道GPT可以提出听起来确实令人信服的假东西?那么你如何将其扎根于事实呢?

SamAltman:这显然是我们非常感兴趣的领域。我认为即将推出的版本会变得更好,但我们必须继续努力,今年我们不会全部解决。

记者:可怕的是,随着情况变得更好,你会开始越来越不进行事实核查,对吗?

SamAltman:我对此有两种看法。我认为人们对技术的使用比我们通常认为的要复杂得多。人们似乎真正理解GPT或任何这些模型都会产生幻觉。如果它是关键任务,你就必须检查它。

记者:但记者似乎不明白这一点。我见过记者含糊地使用GPT-4。

SamAltman:在我想斥责记者的一长串事情中,这并不是我对他们最严厉的批评。

SamAltman:可能是这样。

记忆和隐私

记者:你赋予了ChatGPT拥有记忆以及关闭记忆的能力。我希望我也有这样的能力,打开还是关闭取决于自己。我认为酒精可以做到这一点,但效果不佳。

SamAltman:我们的探索还处于早期阶段,但我认为人们想要的,或者至少是我自己想要的,是一个能够了解我并随着时间的推移对我变得更有用的模型。这还处于早期探索阶段,我认为还有很多事情要做。

记者:完成这项任务有多难?因为现在ChatGPT更像是记住一些小事实和偏好等等。难道你不想让ChatGPT记住你在11月份经历的戏剧性事件吗?

SamAltman:我不仅希望它记住这一点,我也希望它能够整合其中的教训,并提醒我将来应该采取哪些不同的做法或要注意什么。我们从生活经验中获益,同样我希望AI智能体也能从这些经验中获益。想象一下,如果上下文长度达到数万亿,那么我可以把我一生中与任何人进行过的每一次对话都放在那里,比如我可以输入所有电子邮件、所有信息。每次我问问题时ChatGPT都会在上下文窗口中查询,我认为这非常酷。

记者:是的,如果那样的话会非常酷。此外人们非常担心隐私问题。你怎么看?

SamAltman:对于隐私与AI之间的权衡,你、我可能有不同的看法。

记者:但公司对于用户信息的选择应该有一定程度的透明度。就像公司正在收集你的所有数据,但他们会说使用数据是有充分理由的,但具体细节尚不透明。

SamAltman:这完全正确。刚才聊到去年11月发生的事,我认为这是一件非常令人痛苦的事情,让我在很长一段时间内无法工作。毫无疑问,那段时间我必须做的最艰难的事情就是继续工作,尽管当时我处于震惊和痛苦之中,但我必须尝试回到OpenAI并将各个部分拼凑起来,没有人真正关心这一点。有一天早上我醒来,我想,这对我来说是一件可怕的事情。我想我可能会永远感觉自己是受害者,或者我可以说这是我一生中接触过的最重要的工作,我需要回到OpenAI。有时我会在半夜醒来思考这件事,但我确实觉得有义务继续前进。

记者:是的,这里面会有一些挥之不去的东西。我担心的是你提到的信任问题,对别人多疑,而不是相信每个人或大多数人,就像相信你的直觉一样。这是一个棘手的问题。你似乎已经泰然处之了,学到了很好的教训,这很好。我只是想问一些问题,您对GPT能做什么、不能做什么的一些直觉。因为它生成每个token分配大约相同的计算量。这种缓慢思考、顺序思考的方法是否有创新?

SamAltman:我认为将会有一种新的思维模式。

记者:它在架构上会与我们现在看到的LLM类似吗?

SamAltman:我可以想象很多方法来实现这一点。我认为这比你所提出的问题更重要,那就是,我们是否需要一种方法来进行更慢的思考,而答案不必马上得到……

SamAltman:我还没准备好讨论Q*

记者:这确实让我想起了Q*背后的神秘传说。这个神秘的Q*是个什么项目?也是在同一个核设施里吗?

SamAltman:我们没有核设施。

记者:拥有核设施的人都这么说。

SamAltman:我倒是希望有一个秘密的核设施,但是我们没有。

记者:好吧。

SamAltman:也许有一天会有的。

记者:未来某一天?好吧,人人都可以有梦想。

SamAltman:OpenAI并不是一个擅长保守秘密的公司,我们会被很多方方面面的消息泄露所困扰,如果我们真的有核设施就太好了。

记者:那你能说一下Q*是什么吗?

SamAltman:我还没准备好讨论这个问题。

记者:这样的回答证明你们的研究很神秘,Sam。

SamAltman:我的意思是,我们致力于各种研究。此前我们已经说过了,我们追求的重要方向是让系统更好的推理,我们还没有破解这方面的密码,因此,我们兴趣很大。

记者:是否会有这样一个时刻,Q*或者其他研究,会出现类似ChatGPT的飞跃。

SamAltman:这是个好问题,你想问我是怎么看待这件事的吗?这很有趣。对我来说,这一切都是连续的。

记者:我们现在谈论的研究趋势,基本上是沿着指数斜率上升的。这是作为一个局外人的角度观察到的。但对你来说,有没有这种感觉?

记者:是的,更加迭代将会非常棒。我认为这对每个人来说都是有益的。

SamAltman:这正是我们正在尝试做的,这是我们非常明确的策略,我认为我们在某种程度上没有达到这个目标。所以也许我们应该考虑以不同的方式发布GPT-5之类的东西。

记者:是的,但人们更倾向于庆祝,例如庆祝生日。

SamAltman:人们确实喜欢里程碑式的事物。我能理解,我想我们也喜欢里程碑式的研究。在胜利的基础上开始下一件事是很有趣的。但是,我觉得我们在这方面有些许错误。

GPT-5发布时间未知,但会有新模型

记者:那么GPT-5什么时候发布呢?

SamAltman:我不知道。这是诚实的回答。

记者:哦,这是诚实的回答。如果是今年,眨两次眼。

SamAltman:今年我们将推出一款令人惊叹的新模型。我不知道该怎么称呼它。

记者:这就引出了一个问题,你们如何释放这个东西?

SamAltman:我们将在接下来的几个月中发布许多不同的东西。我认为,在我们发布一个类GPT-5的模型(你可以理解为GPT-5,或者不是,又或者比你对GPT-5的期望稍差或好一点的模型)之前,我们有很多其他重要的事情要先发布。

记者:我不知道对GPT-5有何期待,这让我既紧张又兴奋。不管它最终是否被称为GPT-5,我暂且称为GPT-5,在实现之前有哪些需要克服的挑战和瓶颈?是在计算端吗?还是技术方面?

SamAltman:所有这些都有。什么是最重要的?算力更大的硬件?还是其他东西。在我看来这些都是。我认为OpenAI做得非常好……引用Ilya的原话,就像是「我们将200个中等大小的东西相乘,将会变成一个巨大的东西。」

记者:所以这是一种分布式的持续创新?

SamAltman:是的。

记者:技术方面也是这样?

SamAltman:尤其是在技术方面。

记者:即使有详细的技术实现也这样?

SamAltman:是的。

记者:就像你对每一个细节都做得很细致,这在不同的或者完全不同的团队中是如何运作的?这些中等大小的东西是如何变成一个巨大的Transformer的?

SamAltman:有些人的想法是把所有事情放在一起,但大部分人需要先在脑海里构建图景。

记者:你的意思是说各个团队、各个贡献者应该试图把握更大的图景?

SamAltman:在一个高层次上,是的。你当然不可能确切知道每一块是怎样工作的,但我认为有时候将视角拉远,观察整个图景是有用的。这对于技术问题、商业创新都很重要,最终结果会以惊人的方式汇聚在一起,即使大多数时间你专注于某一区域的细节中,拥有对整个图景的理解也会带来意想不到的洞见。实际上,我可以分享一个非常有价值的东西,我曾经对科技行业中所有或大部分前沿动态有一个好的全景图。通过这个全景图我能看到这些领域的连接或新的可能性,如果我只深入一个领域,我就不可能有这样的想法,因为我没有所有的数据。而现在我不再有这种感觉了。

记者:你不再是过去的那个Sam了。

SamAltman:可能吧,现在的工作和我过去的工作非常不同。

Altman否认7万亿美元芯片计划

记者:接下来我们聊聊前段时间你在X上表示要筹集7万亿美元建造芯片厂的事。

SamAltman:我没有发X。我从来没说过「我们筹集7万亿美元」之类的话。

记者:是别人说的吗?

SamAltman:是的。

记者:但我记得你说过「Fuckit,maybeeight」。

SamAltman:好吧,一旦有什么误导信息我会发个梗图。

记者:一方面你会发梗图,但另一方面错误信息可能是别人基于某种洞察推测的。

SamAltman:我认为算力将是未来的货币,它将成为世界上最珍贵的商品之一,我们应该大力投资以产生更多的算力。算力资源将是一个不同寻常的市场,现在人们考虑的大部分是手机芯片市场,世界上有80亿人,可能有70亿人拥有手机,或许是60亿,我们以60亿来说,假如他们每两年升级一次手机,那么每年市场上需求的手机芯片量是30亿。如果芯片公司生产了300亿个芯片,但按照人们的需求并不会卖出10倍多的手机,因为大多数人只有一部手机。

但算力不同,我们以价格来说,在其价格X时,世界会使用这么多的算力,在价格为Y时,世界又会使用另一个数字的算力。如果算力真的很便宜,我会让它整天阅读我的电子邮件,给我的工作提出建议,或者尝试治愈癌症,如果算力很贵,或者我们只会使用它来尝试治愈癌症。

所以我认为世界将会需要大量的算力,实现这一过程面临种种困难。其中能源是最困难的部分,此外建设数据中心也很难、制造足够的芯片同样也很难。但这似乎是事物的发展方向。我们想要的算力现在还很难推断出来。

记者:如何解决能源问题?核能?核聚变?

SamAltman:这就是我所相信的。

记者:谁来解决呢?

SamAltman:我认为Helion(一家美国聚变研究公司)做得最好,我很高兴看到正在进行的核聚变竞赛。我认为,核裂变也是相当惊人的,我希望世界能够重新接受这一技术。这段历史的结束对我来说真的很难过,希望我们能以一种有意义的方式回到过去。

记者:对你来说核裂变是不是困难的一部分?就像我们目前拥有的核反应堆一样?因为很多人因为切尔诺贝利等事件而感到恐惧?

SamAltman:我认为我们应该建造新的反应堆。我认为这个行业陷入停滞是一件很遗憾的事。

记者:我不知道你是否了解人类,人类似乎真的很害怕核裂变,我们必须赢得人们的支持并展示它的安全性。

SamAltman:如果这样的话,我很担心AI。

记者:我希望人工智能可以帮助我们看到事物的真相,保持事物的平衡,让人类知道什么是真正的风险以及实际的危险是什么。在这个领域与Google、Meta、xAI等公司竞争的利弊是什么?

SamAltman:我想我有一个非常直接的答案,也许稍后我能想出更多的细微差别,但好处似乎很明显,那就是我们能更快、更便宜地获得更好的产品和更多的创新,所有这些都是各大公司展开竞争的好处。但是如果我们不小心,可能会导致军备竞赛的加剧,这让我感到紧张。

记者:你是否感受到军备竞赛的压力?

SamAltman:在某些方面是肯定的。我们花了很多时间讨论优先考虑安全的必要性。我已经说过AGI的发展趋势,你能想象在一个象限里,一是AGI开始的时间线还是缓慢的,之后AGI发展的速度短暂起飞或快速起飞。我认为短时间AGI发展起飞慢是最安全的也是我最希望我们进入的区域。我想确保我们能慢速起飞。

记者:你与马斯克在安全问题上存在一些分歧。

SamAltman:至少埃隆说过他非常关心人工智能的安全问题,并且真的很担心,我认为他不会在不安全的情况下参加竞赛。

在某些方面当然是肯定的。我们花了很多时间讨论安全的重要性,我以前就说过。

记者:是的。但我认为,在这方面的合作对每个人都是有益的。

SamAltman:这不是他擅长的东西。

记者:他以关心人类而闻名,让人类从合作中受益。最后,我真心希望人性能战胜一切。

SamAltman:我在想,前几天有人提醒我,在他超越杰夫・贝佐斯成为世界首富的那天,他在X上向杰夫・贝佐斯颁发了一枚银牌。我希望随着人们开始研究AGI,这样的事情会少一些。

记者:我同意。埃隆是我的朋友,他是一个有理想的人,也是有史以来最重要的人之一。

SamAltman:埃隆的神奇之处在于,我非常尊重他。我想我们需要他。我们所有人都应该支持他,并需要他在接下来的阶段作为领导者挺身而出。

谷歌和Gemini

记者:在搜索的帮助下,谷歌在过去的20年里一直占据着主导地位,在世界信息获取、互动方式等方面。目前谷歌感到非常紧张,但对于这个领域的所有人来说,他们都在思考,人们将如何获取信息?就像你说的,人们会以GPT为起点。那么,OpenAI是否会真正承担起谷歌20年前开始做的这件事,也就是「获取信息」?

SamAltman:我觉得这很无聊。我的意思是,如果问题是我们能否打造一个比谷歌或其他公司更好的搜索引擎,那么当然,我们应该去做,人们应该使用更好的产品,但我认为这太不值一提了。谷歌向你展示13个广告,然后是10个蓝色链接,这是寻找信息的一种方式。但让我感到兴奋的并不是我们可以复制谷歌搜索,而是也许有更好的方法可以帮助人们查找信息、采取行动并综合信息。事实上,我认为ChatGPT在某些用例中就是这样,希望我们能让它在更多用例中都能如此。

但我不认为「我们如何比谷歌更好地为你提供10个排名靠前的网页」多有趣,还不如「我们如何帮助你得到你需要的答案或信息?」,展开说就是:在某些情况下,我们如何帮助你创建答案或信息;在另一些情况下,我们如何帮助你综合答案或信息;在另外一些情况下,我们如何帮助你找到答案或信息?

很多人都想做一个比谷歌更好的搜索引擎,这是一个很难解决的技术问题,也是一个很难解决的品牌问题,更是一个很难解决的生态系统问题。我认为世界不需要另一个谷歌。

记者:那么将聊天客户端(如ChatGPT)与搜索引擎集成在一起呢?

SamAltman:那就更酷了。

记者:这很酷,但很棘手。如果你只是简单地做,会很尴尬,因为如果你只是把它塞进去,也会很尴尬。

SamAltman:正如你可能猜到的,我们对如何做好这一点很感兴趣。这就是一个很酷的例子。LLM和搜索的交集,我想还没有人破解过。我很想去做这件事,那一定很酷。

记者:广告方面呢?你有没有考虑过货币化?

SamAltman:作为一种审美选择,我有点讨厌广告。我认为,出于种种原因,广告需要出现在互联网上,让它发展起来,但这只是一时的行业。现在的世界更丰富了。我喜欢人们为ChatGPT付费,并知道他们得到的答案不受广告商的影响。我相信有一个广告单元对LLM来说是有意义的,我也相信有一种方法能以不带偏见的方式参与到交易流中去,但这也很容易让人联想到对未来的悲观想象:你问ChatGPT一些问题,然后它会说「哦,你应该考虑一下购买这个产品」或者「你应该考虑一下去这里度假」之类的。

我不知道,我们有一个非常简单的商业模式,我喜欢它,我知道我不是产品。我知道我在付钱,这就是商业模式的运作方式。而当我使用Twitter、Facebook、谷歌或其他伟大的产品时,我并不喜欢这种广告支持的伟大产品,而且我认为在有人工智能的世界里,这种情况会变得更糟,而不是更好。

记者:我可以想象人工智能会更好地展示最佳版本的广告,其中的广告都是你真正需要的东西。但这样的系统是否总能让广告驱动所展示的内容呢?是的,我认为维基百科不做广告是一个非常大胆的举动,但这也使得维基百科的商业模式极具挑战性。所以你的意思是说,从商业角度来看,OpenAI目前的做法是可持续的?

SamAltman:嗯,我们必须弄清楚如何发展,但看起来我们会弄清楚的。如果问题是我是否认为我们可以拥有一项伟大的业务,在没有广告的情况下满足我们的计算需求,我认为答案是肯定的。

记者:嗯,很有希望。我也不想完全抛弃广告

SamAltman:我不是这个意思。我想我是说我对广告有偏见。

记者:是的,我也有偏见,只是总体上持怀疑态度。就界面而言,我个人对蹩脚的界面深恶痛绝,这也是为什么AdSense刚问世时,相对于动画横幅或其他形式,是一个很大的飞跃。但我觉得,在广告方面应该有更多的飞跃,而不是干扰内容的消费,也不是以一种大的、根本性的方式进行干扰,这就像你刚才说的,就像它会操纵真相来迎合广告商一样。

GPT-5的跃升

记者:从GPT-4到GPT-5的飞跃中,你对哪些方面感到兴奋?

SamAltman:我很高兴能变得更聪明。我知道这听起来像是一个花言巧语的回答,但我认为真正特别的地方在于,它并不是在这个领域变得更好,而在其他领域变得更糟,而是全面发展。我认为,这才是超酷的。

记者:是的,有这样一个神奇的时刻。我是说,你会遇到一些人,你会和一些人出去玩,你会和他们交谈。你无法用语言表达,但他们懂你。这不是智力问题,而是别的东西,这大概就是我对GPT进展的描述。这并不是说,你可以指出,「看,你没有理解这个或那个」,但这只是在多大程度上存在这种智力上的联系。你会感觉到,在你所做的蹩脚的表述提示中,你理解了问题背后更深层次的问题。是的,我也为此感到兴奋。我是说,我们都喜欢被倾听和理解。

这种感觉很奇怪。在编程方面,展望未来,你认为5到10年后人类会做多少编程工作?

SamAltman:我的意思是,会有很多,但我认为形式会大不相同。也许有些人会完全用自然语言编程。

记者:完全用自然语言?

SamAltman:我是说,没有人会用代码编程。有些人是这样。没人再用打卡机编程了。我相信你能找到会编程的人,但你知道我的意思。

记者:是的,很少。我一直在找Fortran编程的人,连Fortran都很难找。我明白你的意思,但这也改变了我们所说的程序员的技能或倾向。

SamAltman:改变了技能组合。至于改变了多少,我不确定。

记者:编程很难。就像如何缩小最后1%的差距?这有多难?

SamAltman:是的,我认为在其他大多数情况下,最优秀的从业者都会使用多种工具。他们会用自然语言做一些工作,当他们需要用C语言写一些东西时,他们就会这么做。

记者:我们是否会在某个时候看到来自OpenAI的仿人机器人或仿人机器人大脑?

SamAltman:会的。

记者:具身人工智能对你来说有多重要?

SamAltman:我认为,如果我们有了人工智能,而在物理世界中完成事情的唯一方法就是让人类去做,那就太令人沮丧了。所以我真的希望,作为这个过渡的一部分,作为这个阶段性变化的一部分,我们也能获得仿人机器人或某种物理世界的机器人。

记者:OpenAI在机器人技术方面有一些历史和相当多的工作经验,但在伦理道德方面还做得不够。

SamAltman:我们是一家小公司。我们必须非常专注。另外,机器人在当时之所以难以普及,原因是错误的,但我们会在某个时候以某种方式重返机器人领域。

AGI

记者:你认为人类什么时候能达到AGI?

SamAltman:我以前很喜欢猜测这个问题。后来我意识到,这个问题很不成熟。而且人们对AGI的定义也大相径庭。因此,我认为更有意义的做法是,讨论我们什么时候才能建立起具有X、Y或Z功能的系统,而不是模糊地讨论我们什么时候才能跨过这一里程碑。AGI也不是终点。它更接近于一个里程碑式的开端。不回避这个问题,我预计到在下个十年的末期,甚至可能更早,我们将拥有相当强大的AI系统。我们看着它,会说:"哇,这真的很了不起。"如果我们现在就能看到这么强大的系统,也许到那时我们已经完全适应了AGI生活。

记者:但如果你给阿兰・图灵展示,90年代的人或许会说:「这绝对是AGI」,应该会有很多计算机专家会说:「这就是AGI」。

SamAltman:是的。但我不认为改变了世界。它也许改变了世界对未来的预期。它的确让更多人认真对待AI相关的问题,并让我们的生活走上了新的轨道。这一点也非常重要,我不想低估的作用。如果我发完就退休了,我可能会对我的职业生涯非常满意,但我不认为在回首往事时,提到时说的是:「那是一个真正改变了世界的门槛」。

记者:所以对你来说,你正在追寻能改变世界的重大转变?

SamAltman:对我来说,这就是AGI的部分含义。

记者:这种转变是奇点级别的转变吗?

SamAltman:不,肯定不是。

记者:那么对于重大转变,类似互联网、谷歌搜索这种级别的,你觉得现在的转变点是什么?

SamAltman:你感觉现在的全球经济与我们推出GPT-4之前有什么不同吗?我觉得你的答案是:没有。

记者:确实没有。对很多人来说,它可能只是一个非常好用的工具。它能帮你解决很多问题,但感觉并没有什么颠覆性的改变。所以,你真正想说的是?

SamAltman:我是说,人们对AGI有各种不同的定义。所以也许你的定义和我不同。但对我来说,我认为改变全球经济应该是AGI的一部分。

记者:戏剧性的转变时刻可能还等候在未来。对你来说,AGI将会出做什么令人印象深刻的事情?你是离AGI最近的人了。

SamAltman:我不知道我对AGI的定义是否正确。但我认为,当一个系统能够显著提高科学发现的速度时,这就是一件大事。大多数真正的经济增长都来自科技进步。

记者:我同意你的观点,这也是我不喜欢近年来质疑科学的言论的原因。

SamAltman:完全同意。

记者:实际的、可测量的科学发现。但哪怕只是看到一个AI拥有真正的直觉、科学直觉,那也是不可思议的。

SamAltman:是的。

记者:你可能会成为构建AGI并能够与它交流的人,你会和它讨论些什么?

SamAltman:OpenAI的研究人员肯定会在我之前和AGI交流。正如我们之前所讨论的,这是一个错误的思维框架。如果有人对我说:「好的,Sam,我们完成了。这是一台笔记本电脑,这就是AGI。你可以去和它交流了。」第一个AGI不会是这样的。我不认为我会问它:「给我解释一下物理的大统一理论,物理的万物理论。」不过这是我最想问它的问题。

记者:你可以先问判断是或否的问题,比如:「这种理论存在吗?它能存在吗?」

SamAltman:那么,我以后先问这些问题。

记者:是还是不是。然后基于此,「那里还有其他外星文明吗?是还是不是?你的直觉是什么?」然后你就问这个。

SamAltman:不过,我的意思是,我不指望第一个AGI能回答这些问题,即使只用「是」或「否」来回答。但如果它能,我会首先问你教我的问题的。

记者:也许你可以开始分配概率?

SamAltman:也许吧。也许我们需要先发明更多的技术,测量更多的数据。

记者:哦,我明白了。只是没有足够的数据。如果它(能获得足够的数据),那么AGI

SamAltman:我的意思是,也许它的回答是:「你想知道这个物理问题的答案,我需要你制造这台机器,进行这五次测量,然后告诉我」

记者:在数学方面,也许AGI能证明一些定理。你对正式探索思维逻辑这方面也感兴趣吗?

SamAltman:Emmm。

记者:谁首先建造了AGI,谁就会获得很多权力。你相信自己能承担那么多权力吗?

SamAltman:我会非常诚实地回答这个问题。我相信我或者其他任何人都不应该对OpenAI或AGI拥有完全的控制权。我认为需要一个健全的治理系统。比如去年我们董事会的所有「宫斗」。我最初没有提出反对,只是想着,「是的。这是董事会的意愿,尽管我觉得这是一个非常糟糕的决定。」后来,我明确地反对了。我可以解释我前后决策的细微差别,以及为什么后来我觉得可以反对那个决定了。但正如许多人所看到的,尽管董事会在法律上有权解雇我,实际上它并没有完全起效。这本身就是一种治理失败。在这里,我要为当时我的具体情况辩护两句。我认为大多数人都会同意我说的。但经历一系列抓马的「宫斗」事件之后,我很难直视着你的眼睛,对你说,「嘿,董事会还可以随时解雇我。」我从来没有独裁OpenAI的想法。我从未有过,也从未想要过超级控制权。即使在所有这些疯狂的事情之后,我仍然不想要。我一直认为公司没有资格对涉及社会方面对问题做决定,我们真的需要政府来制定规则。

不过我又意识到,这意味着像MarcAndreessen(著名硅谷投资人、Mosaic浏览器开发者,因马斯克起诉,OpenAI发布声明,Marc质疑其中不开源,但每个人都能从OpenAI构建的成果里受益的观点,嘲讽道:「怎么不立刻把你的实验室国有化、军事化呢?」)这样质疑OpenAI这样的人,他们会说OpenAI被规则俘虏了。(规则俘虏:一种政治腐败或政府行政失败的现象。指政制定了某种公共政策或法案,在损害公众利益的状况下,使特定领域商业或政治上的利益团体受益)我不愿意在这方面被误解。这不是真的。时间将会证明为什么这一点很重要。我为OpenAI做出了很多糟糕的决定,也有很多好的决定,我对过去的总体表现还是挺骄傲的。但我认为任何一个人都不应该有,我也不认为任何一个人将会有控制AGI的权力。现在思考这个问题还比较抽象,但AGI正在整个社会中以一种良好和健康的方式发生。但我认为任何一个人都不应该有控制AGI的权力,或者向AGI发展的方向。这样的事情现在也在发生。

记者:感谢你的分享。你的想法很有洞察力,特别是你知道董事会在法律上有权解雇你,但人类可以操纵大众,从而凌驾于董事会之上等等。但我认为这个故事还有更正面的版本:即人民仍然拥有权力,所以董事会也不能过于强大。这其中存在权力的平衡。

SamAltman:权力平衡当然是好事。

记者:你担心失去对AGI的控制吗?很多人担心的不是国家统治者,不是安全问题,而是AI本身存在的风险。

SamAltman:就我目前的看法而言,这不是我最担心的问题。曾经有一段时间我对此非常担心。未来可能继续成为我最担心的问题。但现在这不是我最担心的问题。

记者:你不担心AGI失控是为什么呢?因为还有很多其他事情需要你担心,对吧?你会被AGI失控吓到吗?我们——

SamAltman:当然。

记者:……可能会被吓到?

记者:对你来说,现在要逃出这个「思维定式」很难吧,考虑到网上的言论

记者:鉴于Sora生成模拟世界的能力,如果你有过我们生活在由AI系统生成的模拟世界的想法,Sora是否增加了你的信念?

SamAltman:有点吧。我不认为Sora是最有力的证据。我认为每个人对我们能够生成世界这一事实都或多或少增加了点信念吧,或者至少增加了对这个观点的开放性。但我确信我们最终能够做到类似Sora所预示的事情。它发生得比我想象的要快,但我猜那将不是一个重大的更新。

记者:是的。但事实是……而且可以预见,它会变得越来越好……你可以基于训练数据生成全新的世界,用AI做到这一点似乎很容易。创建宇宙、一个或超现实或很真实的电子游戏世界都将变得很容易。那么先通过VR头显,再基于物理的层面上,迷失在那个虚拟世界中又会有多容易呢?

SamAltman:最近有人和我讨论过这个问题。有时候会有这些听起来很简单但令人迷惑的见解。举个例子,比如平方根函数,四的平方根,没问题。二的平方根,好的。很容易就能给一个孩子解释清楚这些简单的平方根的概念,通过观察一些简单的几何也能看到,你再问负一的平方根是什么?这和你提出的问题类似,令人迷惑的原因在于负一的平方根将你带入了另一种现实。

你可以想出很多其他的例子,但我认为这个平方根运算符在很多关于新知识领域的想法都适用的。我认为有很多这样的运算符。我认为,人们之所以会认为自己所赞同的模拟假说都比之前更有可能成真,其中有很多运营的成分。但对我来说,Sora的工作并不是我最关心的五件事之一。

记者:我确实认为,从广义上讲,人工智能将是通往另一波C级现实的最佳通道。

SamAltman:这似乎是肯定的。

记者:你认为当我们仰望天空时,还有其他的外星文明,智能的文明存在吗?

人类智慧

SamAltman:我觉得答案是肯定的。费米悖论非常令人费解。

记者:我觉得智能不擅长处理这样强大的技术。与此同时,我相信外面存在着大量的外星智慧文明,只是太空旅行真的很难。这也让我思考智能的本质。也许我们真的对智能的本质视而不见,也许AI能帮助我们看清这一点。这并不像IQ测试和简单的解谜那么简单,还有一些更重要的东西。那是什么让你对人类的未来充满希望?

SamAltman:我觉得过去的东西很多。我的意思是,我们只要看看人类在不长的时间里做了些什么,巨大的问题,深刻的缺陷,很多让人超级羞愧的事情。但总的来说,非常鼓舞人心。给了我很多希望。

记者:我们一起向更美好的未来迈进。

SamAltman:我其实很好奇,AGI是更像某个单一的大脑,还是更像我们所有人之间的社会支架?你与你的曾曾曾祖父母的基因变化不大,但能力却大不相同,所知道的也大不相同。这并不是因为生物学上的变化。你可能变得更健康了一些,这是因为有了现代医学,你也吃得更好了,等等。但你所拥有的,是人类共同创造的。一个人是没法儿制造iPhone的,一个人也没法儿去发现所有的科学。但你可以使用它,这种共同创造给了你难以置信的能力。从某种意义上说,我们共同创造了这一切,这让我对未来充满希望。这是一件集体性很强的事情。

记者:是啊,我们站在巨人的肩膀上。当我们谈到AI风险时,你提到有时你会担心自己的生命安全。你想过自己的死亡吗?你害怕死亡吗?

SamAltman:如果我明天就中枪了,而且我今天就知道了,我会说,「哦,那太可悲了。我想直到接下来将发生什么,这很让人好奇。」不过,大多数时候,我都会为自己的生命感到庆幸。

记者:我也是。现在这样的生活太棒了,我可以享受到人类的伟大创造,我相信ChatGPT就是其中之一,还有OpenAI所做的一切。Sam,很荣幸能再次与你交谈。

SamAltman:很高兴与你交谈。感谢您的邀请。

发布于 2024-11-25
139
目录

    推荐阅读