除了o1/o3,OpenAI另一个尚未公开的内部推理模型曝光了。
爆料者正是CEO奥特曼本人。
据他透露,与全球顶尖程序员相比,当前这一内部模型的编程能力已达Top50,甚至今年年底将排名第一。
而且针对大家近来尤为关注的算力问题,他更是直言:在内部,我们已经达到了GPT4.5,而达到GPT5.5并不需要100倍以上的计算能力。
除此之外,也是在东京大学的这场对话活动中,奥特曼由AI对教育的影响引出了更多话题,包括AI时代需要何种人才,以及一系列对内部模型进展的爆料。
这场对话由东京大学的校长(Teruo Fujii)和执行副校长(Kaori Hayashi,女)主持,OpenAI首席产品官Kevin Weil陪同奥特曼参加。
期间,他们畅谈了AI的应用和未来,并和学生进行了面对面问答。
内部模型已达GPT4.5,升级成5.5不再需要100倍算力升级
主持人简短开场后,活动由学生提问开启。
谈及AI对教育的影响以及未来这一领域的发展,奥特曼直言教育是OpenAI最关注的几个领域之一。
目前已经能看到ChatGPT如何为学生提供各种辅助,未来类似AI工具只是改变了环境和部分人类习惯,对于人类来说可能是一种解放,不用过于担心AI会改变一切。
另外,由于科学发现可能呈现10~100倍增速,由AI推动的生产力进步可能极大促进社会发展。
对此奥特曼回应称,显然人类现在已经很难在数学、编程等具体任务中优于AI,因此围绕弄清楚人们需要什么,去培养个人的开创性视野、快速适应能力等也就更加重要。
Kevin总结了一个更简单的办法,从现在开始将AI用起来,将之融入工作生活。一旦遇到新问题,尝试用AI解决,以此逐渐跟上AI发展的步伐。
奥特曼称,GPT系列代表了曾经的一个范式,专注预训练部分,GPT1,2,3,4的每一次升级都大致意味着100倍算力升级,随之也产生了更强的能力。
目前内部模型已经达到GPT4.5水平,照旧范式推测,达到GPT5.5也需要100倍算力升级。然而,随着o1系列推理模型取得新突破,一种令人难以置信的新计算效率诞生了。
这也意味着类似升级不再需要100倍算力,通过强化学习等技术我们也能得到更强的模型能力。
接下来,奥特曼谈到了更多未来计划。
o3的发布已经为未来6~12个月的研究点明了方向,OpenAI将尽可能推动小型、功能强大且速度极快的推理模型,同时也会继续推进GPT6/7等。
过程中,他着重cue到了OpenAI最近向Pro用户推出的“深度研究”(Deep Research)功能,这是一个使用推理来综合大量在线信息并为用户完成多步骤研究任务的智能体,能帮助用户进行深入、复杂的信息查询与分析。
在他看来,OpenAI一大重点也是发布更多此类智能体,而且梦想之一是搞一个编程智能体。
总之,今年的主线任务是,到年底能够有一个模型,即便用户问出非常难的问题,它也能在运行并思考几小时后准确作答。
奥特曼这次倒是很干脆,直接承认“我们将这样做”,“我们希望朝着开源前进”。
虽然众所周知他和马斯克不对付,但他这次竟然直言:(像Neuralink这样的)脑机接口公司是自己过去6个月见过的最有趣的
来源:量子位