OpenAI在4月16日发布了两款新型AI模型o3和o4-mini,这些模型模仿人类的推理过程,专注于解决复杂的编程和视觉任务。o3是主要的新型推理模型,而o4-mini是更小型的版本。它们延续了之前o1模型的推理能力,并着重提升了处理复杂问题的能力。
o3模型在响应用户提示前会进行更多计算,以解决更复杂的科学、数学和编程问题。用户可以上传图像内容供AI分析和讨论,模型还能对图像进行编辑操作。o4-mini在价格、速度和性能之间取得了平衡,提供了一个有竞争力的选择。
这两款模型首次实现了“图像思维”,能够独立使用全部ChatGPT工具,包括网页浏览、Python编程、图像理解和图像生成能力。这意味着它们不仅能看图,还能将视觉信息直接整合进推理链条之中。
在性能测试中,o3和o4-mini在多个领域表现出色,包括数学竞赛题目、编程竞赛评分和科学问答等。它们在视觉推理测试中也全面超越了前代模型o1。
同时,OpenAI还发布了开源AI agent CodeX CLI,用于帮助用户执行编程任务,改善市场竞争能力。CodeX CLI旨在与如o3等模型协同工作,可免费向用户开放,并可直接在用户的计算机终端程序中运行。
未来几周内,OpenAI还将推出o3的升级版本o3-pro,仅供ChatGPT Pro订阅用户使用。o3和o4-mini可能是OpenAI在GPT-5发布之前推出的最后一批独立推理模型。GPT-5预计将融合传统模型(如GPT-4.1)与推理模型,实现统一发展方向。