|

开创先河!o3和o4-mini居然能在思维链思考图片,太逆天了!

​凌晨1点,OpenAI的重头戏来了!  

终于是把之前鸽了很久的满血版o3发布出来了,还有一个新的模型o4-mini。  

先说一个最让我感觉牛*的功能,o3和o4-mini居然能进行视觉推理了。  

可能大家一时还不太理解,给大家看几个例子。

博主@数字生命卡兹克让o3看图猜地理位置,虽然这道题平平无奇,但你如果看到它的推理过程,绝对直呼牛逼。

扔给o3一张图片,让它猜这是哪里?

一张图片

大家请看它的推理过程,就非常离谱,它居然在思维量里面带图片了。

OpenAI的o3模型进行推理

它一点一点到放大图片,如何进行思考,如果思考方向不对,果断换方向思考。

之前的模型在思考的时候,通常都是文字,而且一大堆,阅读难度高,而现在大模型居然能把照片真正的融入到推理中(又是一项创新)。

再来揭晓一下答案,它给出的答案是北京市西部109国道妙峰山-斋堂-雁翅。

o3回答正确

o3给出的回答正确,再来看一下它的推理过程,它居然是通过植被、地脉、道路、环境氛围等因素推断这里是妙峰山附近,就真的很离谱。

再来看另外一个例子,虽然是英文,但是整体很好理解,让o3解决桌子的那道题,它首先会去定位问题,然后一步一步把图片放大,直到把纸上的例题可以看清,最后给出经过推理给出答案。

此次OpenAI的o3和o4-mini的视觉推理给我冲击最大,这也意味着大模型开始真正的理解3D世界了,而不再是停留在文字上,此前关于OpenAI回答不出的空间问题,现在终于能解决了。

视觉思考也开始让模型可以像人类一样从图表、图形,甚至是对图像中提取信息、进行深度推理并解决问题。

除了视觉推理外,还有几个不错的亮点,o3开始可以使用工具了。

终于不像o1那样无法联网、不能使用代码解释器,当推理能力更强的o3再结合上OpenAI的这些工具,o3的能力将会再次拔高。

还有一个亮点就是o3和o4-mini性价比更高,在定价上,o3比o1的定价便宜了三分之一,o4-mini相比o3-mini没涨价。

o3和o4的价格

大家在调用的时候该选谁,应该都清楚了吧,可以果断弃用o1了,毕竟o3好用还便宜。

老规矩,再给大家看一下o3的跑分成绩。

在Codeforces编程竞赛评分中,o3和o4-mini得分均超过了2700分,效果远超o1和o3-mini。

在Codeforces编程竞赛评分中,o3和o4-mini得分均超过了2700分,效果远超o1和o3-mini。

如果o3和o4-mini调用工具,它们的能力会进一步增强。

在OpenAI放出的专家综合考题中,显示不带插件的o3准确率约为20.3%,添上Python、网络浏览甚至调用多种工具后能推到24.9%。

相比之下,不带插件的o4-mini为14.3%,但借助插件也仅为17.7%,远不及o3。

在OpenAI放出的专家综合考题中,显示不带插件的o3准确率约为20.3%,添上Python、网络浏览甚至调用多种工具后能推到24.9%。

这些纸面的成绩就不过多展示了,大家在其他博主也都可以看到。

最后,给大家看一些o3、o4-mini的实际表现。

目前,GPT-4o、o3、o4-mini都支持最新的生图功能,你只需要明确告诉ChatGPT你需要生成图片就行。比如在对话时,前缀加上 “请生成图片”。

使用o3作图

o3的表现确实不错,但博主@牙医在经过测试完说:OpenAI o4-mini的编程能力不如Gemini-2.5 ,只排在第七位。

博主牙医点评o3和o4-mini

效果到底如何,还是得自己上手才知道,也欢迎大家在评论区发表一下自己的使用心得。

目前o3、o4-mini 和 o4-mini-high 已经推送到 ChatGPT。 Plus、Pro 和 Team 用户已可用,大家有会员的可以去体验一下。

如果大家还不知道如何订阅ChatGPT,可以看之前的文章。  

相关阅读:国内用户如何充值订阅ChatGPT Plus(2025最新方法)​​​​​​​

除了发布新模型外,OpenAI 这次还开源了一个新工具“Codex CLI”。

一个可以直接在终端(terminal)运行的轻量级AI编程助手,支持调用 o3 和 o4-mini 等模型。

目前该开源项目,已经斩获10000多颗小星星了。

Codex CLI

开源地址:https://github.com/openai/codex

好了,今天的分享就到这里,欢迎大家来评论区激烈讨论!​

类似文章

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注