

Data / IA
OpenAI ne sait plus trop sur quelle IA valser…
Par Laurent Delattre, publié le 15 avril 2025
OpenAI n’a plus l’outrageuse avance d’il y a deux ans. Le plafond de verre rencontré dans le développement dès très grands modèles a ralenti ses projets, changé sa stratégie et permis à la concurrence de refaire son retard. Et l’éditeur semble avoir du mal à trouver son nouveau cap. Mais continue d’avancer en lançant un très inattendu “GPT 4.1”.
Entendons-nous… Malgré notre titre, tout va plutôt bien chez OpenAI, même si l’entreprise doit absolument trouver comment changer ses statuts et se métamorphoser d’une entité à but non lucratif en une entreprise profitable et lucrative. Son avenir – autant que sa nouvelle levée de fonds – en dépendent. En effet, sur les 40 milliards de dollars annoncés il y a deux semaines pour sa nouvelle levée de fonds, 30 milliards ne seront réellement versés que si la startup parvient à transformer ces statuts. Une tâche ardue, car la FTC américaine la voit d’un mauvais œil et Elon Musk y met tous les bâtons juridiques possibles pour éviter l’épanouissement de ce concurrent phare de son entreprise xAI. OpenAI a d’ailleurs contre-attaqué la semaine dernière en demandant à un juge fédéral de faire stopper le « harcèlement » d’Elon Musk à son encontre. OpenAI accuse Musk d’une série d’actions nuisibles, notamment des attaques médiatiques, des demandes abusives de documents et une tentative déloyale d’acquérir des actifs de la société.
Parallèlement, pour l’aider à se transformer en entité commerciale tout en disposant d’un volet philanthropique, OpenAI vient de rassembler un comité d’experts (leaders en santé, science, éducation et services publics, principalement en Californie) afin d’identifier les enjeux urgents des associations. Ce groupe soumettra ses recommandations au conseil d’administration dans les 90 jours, guidant l’évolution de la philanthropie d’OpenAI avant fin 2025.
Une bonne dynamique
Malgré cette complexe étape à franchir, la startup de l’IA affiche des résultats plus que prometteurs. En février, la startup avait annoncé 400 millions d’utilisateurs de ChatGPT dont plus de deux millions d’utilisateurs payants et anticipait un triplement de son chiffre d’affaires pour atteindre 12,7 milliards de dollars d’ici la fin de l’année. Mais les choses se sont encore accélérées.
L’arrivée de la nouvelle fonction de génération d’images de son modèle « GPT-4o » a engendré une folie furieuse d’images à la « Ghibli » ou façon « Starter Pack » sur les réseaux sociaux et booster l’audience de ChatGPT a près de 800 millions d’utilisateurs par semaine !
Mais une valse qui donne le tournis
Pour autant, la jeune pousse semble ne plus avoir de stratégie à court terme bien définie. Elle pratique avec ses modèles une étrange valse de l’IA. Après n’avoir plus lancé de LLM « GPT » pendant des mois, elle a semblé tout vouloir miser sur les modèles à raisonnement « o1 » puis « o3 ». Mais alors qu’Anthropic lançait son premier modèle hybride (ajoutant le raisonnement à son modèle traditionnel) avec « Claude Sonnet 3.7 » et que Google emboitait le pas « hybride » avec sa famille « Gemini 2.5 », OpenAI annonçait en mars abandonner le lancement de « o3 » pour fusionner ses modèles « GPT » et « o » au sein d’un unique modèle dénommé « GPT-5 » qui devait arriver en mai.
En attendant, OpenAI lançait « GPT 4.5 », en preview un modèle sans raisonnement, peu innovant et pourtant ultra onéreux.
Cette semaine, l’entreprise de Sam Altman annonce un nouveau revirement. Finalement, le modèle « o3 » complet devrait bien débarquer dans les prochains jours. Et le modèle « GPT 4.5 » va simplement être retiré, quelques semaines après son lancement. « GPT-5 » est repoussé. Et l’éditeur lance un modèle dénommé « GPT 4.1 », dont la nomenclature n’a pas grand sens mais qui promet de très notables progrès.
Pourquoi de tels revirements ? Apparemment, la fusion des technologies « GPT » et « o » est plus compliquée que prévu. Mais OpenAI doit parallèlement montrer qu’elle conserve son leadership sur l’IA générative alors qu’une étude récente de Stanford montre que les écarts en tête de classement se resserrent. Sur le Chatbot Arena Leaderboard, qui invite les utilisateurs à évaluer les performances de divers robots conversationnels, le modèle classé premier affichait un score supérieur d’environ 12 % à celui du dixième au début de 2024, mais cet écart s’est réduit à seulement 5 % au début de 2025 ! En un mot, tous les très grands modèles se valent plus ou moins désormais.
Quoi de neuf sur GPT 4.1
Pour revenir à l’annonce de la semaine, OpenAI a donc lancé une nouvelle famille de modèles dénommée « GPT 4.1 ». Contrairement aux apparences, elle est plus récente que « GPT 4.5 » et plus performante que « GPT-4o » mais pas aussi « modèle à tout faire » que ce dernier. Fait inhabituel, GPT-4.1 sera – tout au moins pour l’instant – uniquement disponible via l’API pour les développeurs, et non dans l’interface grand public de ChatGPT où la majorité des utilisateurs interagissent avec la technologie d’OpenAI.
OpenAI positionne GPT-4.1 comme une nette amélioration par rapport à GPT-4o, particulièrement en matière de codage et de suivi d’instructions complexes. Surtout, la nouvelle famille de modèles apporte également cette fenêtre de contexte d’un million de tokens – environ quatre fois plus grande que celle de GPT-4o. OpenAI refait ainsi son retard sur Google dont les modèles Gemini supportent des fenêtres contextuelles d’1 million de tokens depuis près d’un an.
Face à GPT 4.5, les différences semblent plus subtiles. Bien que GPT-4.1 obtienne de bien meilleurs résultats sur le benchmark de codage SWE-bench Verified (54,6 % contre 38,0 % pour GPT-4.5), les données de benchmark d’OpenAI révèlent que GPT-4.5 performait mieux sur les tests de connaissances académiques, le suivi d’instructions et plusieurs tâches liées à la vision.
Enfin, et c’est là peut-être la principale nouveauté, « GPT 4.1 » est décliné en trois modèles différents : le modèle frontière « GPT-4.1 », le modèle optimisé « GPT-4.1 mini », et le petit nouveau « GPT 4.1 nano ». C’est la première fois qu’OpenAI introduit un modèle Nano.
Selon OpenAI, « GPT-4.1 mini » surpasse « GPT-4o » sur bien des benchmarks tout en réduisant la latence par deux (dit autrement, il répond deux fois plus vite) et surtout en réduisant les coûts de 83% pour les entreprises clientes !
Pour les tâches qui exigent une faible latence, « GPT-4.1 nano » s’affirme comme le modèle le plus rapide et le moins cher d’OpenAI. Selon l’éditeur, il est idéal pour des tâches telles que la classification ou l’autocomplétion mais son potentiel ne s’arrête pas à ces cas d’usage d’autant que lui aussi dispose d’une fenêtre contextuelle de 1 million de tokens.
La famille “GPT 4.1” est disponible dès aujourd’hui sur la plateforme API d’OpenAI mais également sur les plateformes de son partenaire de toujours, Microsoft. “GPT 4.1” intègre donc non seulement Azure OpenAI Service mais aussi Azure AI Foundry et même Github ! Et Microsoft de préciser que “AI Foundry” offrira des fonctionnalités de “Fine Tuning” supervisé dès la fin de la semaine sur les modèles “GPT 4.1” et “GPT 4.1 mini” afin de permettre aux entreprises de personnaliser les modèles d’OpenAI sur leurs propres jeux de données et leurs besoins spécifiques. Car, il est bon de le rappeler, il n’y a pas que les modèles dits “ouverts” qui peuvent être “fine-tunés”…
À LIRE AUSSI :

À LIRE AUSSI :
