OpenAI permet désormais aux entreprises d'affiner (fine-tuner) ses modèles GPT-4o et GPT-4o mini

Data / IA

OpenAI propose aux entreprises de « Fine-Tuner » ses modèles GPT-4o et GPT-4o mini

Par Laurent Delattre, publié le 21 août 2024

La personnalisation des modèles LLM par Fine-Tuning se démocratise et OpenAI suit cette tendance en proposant un moyen d’affiner ses nouveaux et puissants modèles GPT-4o et GPT-4o mini. En offrant aux entreprises la possibilité d’adapter ces modèles à leurs contextes spécifiques, OpenAI répond aux besoins croissants de réduction des hallucinations et d’amélioration des performances sur des cas d’usage particuliers.

Pour des résultats plus centrés sur les contextes et données de l’entreprise et limiter les risques d’hallucinations des LLMs, il faut pouvoir personnaliser les modèles grâce à des techniques comme le « Fine-Tuning » qui permette d’ancrer les grands modèles sur les données de l’entreprise sans pour autant refaire toute la phase d’apprentissage.

Un temps limité aux petits modèles open source que l’on héberge sur ses propres infrastructures, les techniques de « Fine Tuning » se sont petit à petit popularisées et se sont désormais étendues ces dernières semaines aux modèles hébergés dans le cloud au travers des services MaaS (Modèles as a Service) comme Azure OpenAI Services, Mistral La Plateforme, Google VertexAI, AWS BedRock, etc.

Le Fine Tuning accessible à tous via des API d’affinage

Pour cela, ces grands services Web exposent des versions « affinables » des modèles avec des API de « fine-tuning » adaptées. Typiquement, Mistral a annoncé en juin dernier l’introduction sur « La Plateforme » d’outils et d’une « API d’affinage » pour personnaliser à moindre coût ses modèles (Mistral 7B, Mistral Small, Mistral Nemo, Mistral Large 2 et Codestral). Microsoft a annoncé en juillet une fonctionnalité serverless de fine-tuning de son SLM Phi-3. AWS permet via Bedrock d’affiner certains modèles à commencer par Claude 3 Haiku.

OpenAI permet désormais d’affiner ses meilleurs modèles

Cette semaine, OpenAI a annoncé introduire des API d’affinage pour ses nouveaux modèles GPT-4o (considéré comme le modèle LLM le plus puissant du marché) et GPT-4o mini (une version plus véloce et beaucoup moins onéreuse à l’emploi, mais presque aussi douée du LLM GPT-4o).

Dans un billet de blog, la startup pionnière de l’IA générative explique que « les développeurs peuvent désormais affiner GPT-4o avec leurs propres ensembles de données pour obtenir de meilleures performances à moindre coût pour leurs cas d’utilisation spécifiques. L’affinage permet au modèle de personnaliser la structure et le ton des réponses, ou de suivre des instructions complexes propres à un domaine particulier. Les développeurs peuvent déjà obtenir des résultats solides pour leurs applications à partir d’une petite douzaine d’exemples dans leur jeu de données d’entraînement. De la programmation à l’écriture créative, l’affinage peut avoir un impact important sur les performances du modèle dans divers domaines. »

Un coût, certes…

Le Fine-Tuning de GPT-4o et celui de GPT-4o mini sont disponibles dès à présent pour tous les développeurs sur tous les niveaux payants de sa plateforme. OpenAI offre gratuitement à chaque organisation 1 million de tokens de formation par jour pour l’affinage de GPT-4o et 2 millions de tokens de formation par jour pour celui de GPT-4o mini. Cette offre est valable jusqu’au 23 septembre.

Hors promotion et hors quota, le fine-tuning de GPT-4o est facturé 25 dollars par million de tokens. Mais ce n’est qu’une partie de l’équation. En effet, l’inférence du modèle affiné est ensuite facturée 3,75 dollars par million de tokens en entrée et 15 dollars par million de tokens en sortie.

… mais plus de valeur

Pour démontrer le potentiel d’un tel affinage de ces modèles, OpenAI a recueilli le témoignage de deux entreprises ayant eu un accès en avance de phase à cette fonctionnalité.

Ainsi, en utilisant un modèle GPT-4o affiné par ses propres moyens, la société Genie a obtenu un score SOTA de 43,8 % sur le nouveau benchmark SWE-bench Verified. Genie a également obtenu un score SOTA de 30,08 % sur SWE-bench Full, dépassant son score SOTA précédent de 19,27 %, ce qui représente la plus grande amélioration jamais enregistrée sur ce benchmark.

Autre exemple, l’éditeur Distyl s’est récemment classé premier au benchmark BIRD-SQL, le principal benchmark text-to-SQL du marché. Le modèle GPT-4o affiné de Distyl a atteint une précision d’exécution de 71,83% et a excellé dans des tâches telles que la reformulation de requêtes, la classification d’intentions, la chaîne de pensée et l’autocorrection, avec des performances particulièrement élevées dans la génération de code SQL.

Bref, en utilisant des versions affinées par leur propre soin et leurs propres données de GPT-4o et GPT-4o mini, les entreprises peuvent espérer obtenir des résultats encore plus pertinents et tirer le meilleur des IA d’OpenAI dans leurs contextes métiers et leurs cas d’usage. Étant donné la simplicité de mise en œuvre de telles solutions de Fine Tuning hébergées, il y a fort à parier que les entreprises vont rapidement se former et s’acculturer à la pratique. D’autant que celle-ci peut se combiner aux techniques RAG pour obtenir des IA toujours plus personnalisées et donc à même d’offrir plus de valeur…


À LIRE AUSSI :

À LIRE AUSSI :

Dans l'actualité

Verified by MonsterInsights