OpenAI a récemment annoncé le lancement de deux nouveaux modèles, o3 et o4-mini, marquant une avancée significative dans le domaine de l’intelligence artificielle. Ces modèles, combinant des capacités de raisonnement simulé avec un accès à des fonctions comme la navigation web et le codage, sont les premiers à pouvoir utiliser simultanément tous les outils de ChatGPT, y compris l’analyse visuelle et la génération d’images.
Une nouvelle ère pour ChatGPT
Les modèles o3 et o4-mini représentent une évolution majeure pour OpenAI, offrant des capacités de raisonnement simulé inédites. Ces modèles peuvent déterminer dynamiquement quand et comment utiliser des aides pour résoudre des problèmes complexes, comme la recherche de données, l’écriture de code Python, ou la génération de graphiques, le tout en réponse à une seule requête.
Multimodalité et raisonnement avec images
Une caractéristique clé de ces nouveaux modèles est leur capacité à intégrer des images directement dans leur processus de raisonnement. Cela leur permet d’interpréter des schémas, des tableaux blancs, et même des croquis dessinés à la main, même lorsque la qualité de l’image est médiocre.
Performances et réactions
Les premières réactions à ces modèles sont positives, avec des experts notant leur potentiel à générer des hypothèses scientifiques complexes et basées sur des faits. Cependant, malgré des performances impressionnantes sur plusieurs benchmarks, il est conseillé de rester prudent et de vérifier indépendamment les résultats, surtout dans des contextes de recherche rigoureuse.
Accessibilité et tarification
Les abonnés à ChatGPT Plus, Pro, et Team ont désormais accès à ces modèles, avec des tarifs réduits pour les développeurs utilisant l’API. OpenAI a également introduit Codex CLI, un outil expérimental permettant d’exécuter des tâches de codage directement depuis le terminal, accompagné d’un programme de subvention pour encourager son utilisation.