2025年4月16日、OpenAIは最新のAIモデル「o3」と「o4-mini」をリリースしました。これらの新モデルは従来のモデルから大幅に進化し、特に画像理解と推論能力において飛躍的な進歩を遂げています。
主な特徴
OpenAIの新モデル「o3」と「o4-mini」は、以下のような特徴を持っています:
両モデルは「画像で考える」能力を持つOpenAIの最初のモデルです。これは単に画像を見るだけでなく、視覚情報を直接推論プロセスに統合できることを意味します。
特に「o3」モデルは数学、コーディング、科学、および画像理解に特化しているのに対し、「o4-mini」はより高速かつ低コストで動作します。
両モデルはウェブブラウジング、Python、画像理解、画像生成など、ChatGPTのすべてのツールを独立して使用できる初めてのモデルとなっています。これにより、複雑な多段階の問題をより効果的に解決し、独立して行動するための実質的な一歩を踏み出しています。
モデルの性能と応用分野
「o3」はOpenAI o1の後継として開発された反射型生成事前訓練済みトランスフォーマー(GPT)モデルで、ステップバイステップの論理的推論を必要とする質問に対して追加の熟考時間を割り当てるように設計されています。
OpenAIによれば、「o3」はGPQA Diamondベンチマーク(オンラインで公開されていない専門レベルの科学的質問を含む)で87.7%のスコアを達成しました。また、実際のGitHub問題を解決する能力を評価するソフトウェアエンジニアリングベンチマークであるSWE-bench Verifiedでは71.7%のスコアを達成し、o1の48.9%を大幅に上回っています。
利用可能性
両モデルはChatGPT Plus、Pro、Teamユーザー向けに直ちに提供され、o3-proは「数週間以内」に提供される予定です。 また、OpenAIは「o3」と「o4-mini」と連携する「Codex CLI」も発表しました。これは「コンピュータのターミナルアプリでローカルに実行される軽量のオープンソースコーディングエージェント」として説明されています。
技術仕様比較表
特徴 | o3 | o4-mini |
---|---|---|
主な特化分野 | 数学、コーディング、科学、画像理解 | 高速処理、低コスト運用 |
ベンチマーク:GPQA Diamond | 87.7% | 非公開 |
ベンチマーク:SWE-bench Verified | 71.7% | 非公開 |
ツール統合 | ウェブブラウジング、Python、画像理解、画像生成 | ウェブブラウジング、Python、画像理解、画像生成 |
利用可能ユーザー | ChatGPT Plus、Pro、Team | ChatGPT Plus、Pro、Team |
リリース日 | 2025年4月16日 | 2025年4月16日 |
まとめ
OpenAIの新モデル「o3」と「o4-mini」は、特に画像理解と推論能力において大きな進歩を遂げました。これらのモデルは複雑な問題を解決するための強力なツールとなり、AIの独立した行動能力への一歩を示しています。今後数ヶ月以内にはGPT-5のリリースも予定されており、AIの進化は更に加速すると見られています。
参考資料
- OpenAI公式発表:Introducing o3 and o4-mini
- CNBC:OpenAI says newest AI models o3 and o4-mini can ‘think with images’
- Axios:OpenAI rolls out o3 and o4-mini
- Wikipedia:OpenAI o3
コメント