Data / IA
Auto-GPT, BabyAGI, Agent-GPT… De fausses bonnes idées ?
Par Laurent Delattre, publié le 20 avril 2023
ChatGPT bouleverse le monde IT et invite le monde entier à une profonde réflexion sur les bénéfices et risques des IA. Mais jusqu’ici, ChatGPT n’était guère dangereux, car sans lien direct avec notre univers physique et sans réelle capacité d’actions. Mais certains services cherchent désormais à l’utiliser pour automatiser des tâches. Une fausse bonne idée ?
Les IA génératives n’en sont qu’à leurs balbutiements, mais elles occupent déjà la scène médiatique et s’infiltrent à grande vitesse dans notre quotidien et dans nos processus d’entreprise. Ceci malgré leurs imperfections. Les DSI le savent désormais, les grands modèles linguistiques LLMs ont une propension à affabuler ou halluciner, sont parfois très limités sur certaines formes de raisonnement, et sont très influencés par les biais humains présents dans les jeux de données qui ont servi à leur apprentissage.
Les IA conversationnelles comme ChatGPT, basées sur ces modèles LLMs, sont très douées pour s’exprimer, mais ne comprennent pas le sens des phrases qu’elles génèrent. Hallucinations, fausses informations, erreurs de raisonnement sont des défauts que les chercheurs travaillent désormais à gommer. Mais il faudra peut-être encore des années de R&D avant d’arriver à corriger ces défauts inhérents aux technologies de Deep Learning utilisées pour leurs modèles.
En attendant, ces IA peuvent se montrer utiles et ne présentent pas de dangers intrinsèques. Le danger ne vient pas de l’IA, mais de l’humain qui l’utilise. Tout outil peut voir son usage perverti quand il est utilisé à mauvais escient.
ChatGPT et Bing Copilot sont d’autant moins dangereux qu’en tant qu’IA conversationnelles, elles ne disposent non seulement d’aucun mécanisme d’automatisation, mais aussi d’aucune interaction directe avec le monde physique. Sans l’humain pour improviser du grand n’importe quoi derrière (cf. le projet ChaosGPT ou les usages cybercriminels des capacités de génération de fakenews et phishing), leur dangerosité est davantage fantasmée que réelle.
Vers des IA plus autonomes…
Mais les choses sont en passe de changer. La recherche notamment dans l’univers open-source est foisonnante. Et depuis quelques semaines, plusieurs projets veulent mettre à profit les capacités d’analyses et de générations de tâches à faire de ChatGPT pour y ajouter par-dessus une couche d’automatisations.
Auto-GPT est le projet qui secoue la twittosphère. Créé en open source sur GitHub par le développeur de jeux Toran Bruce Richards, il vise à automatiser des tâches imaginées et générées par GPT-4 (le modèle d’OpenAI sous-jacent à ChatGPT). Il nécessite d’ailleurs une clé d’accès à l’API d’OpenAI et donc un compte payant. L’utilisateur indique à Auto-GPT son objectif final et Auto-GPT le réalise en automatisant les différentes étapes qui en temps normal auraient nécessité plusieurs échanges successifs avec ChatGPT. Autrement dit, pour reprendre le descriptif officiel, il « enchaîne les ‘pensées’ du LLM GPT-4 pour atteindre de manière autonome l’objectif fixé ». Auto-GPT génère automatiquement les « prompts » à envoyer à GPT-4, analyse des réponses et enchaîne les prompts sans intervention humaine. Il peut même surfer sur le Web pour récupérer des informations nécessaires à la complétion de l’objectif final.
Baby AGI (l’accès au site vient d’être restreint par GitHub) est, elle aussi, une IA d’automatisation s’appuyant sur les capacités linguistiques de GPT-4. L’outil – qui n’est fondamentalement qu’un script Python – « crée des tâches basées sur le résultat des tâches précédentes en visant un objectif prédéfini ». Il crée, organise, priorise et exécute les tâches nécessaires pour atteindre l’objectif. Dès lors, Baby AGI est capable d’accomplir des tâches, d’en générer de nouvelles sur la base de résultats antérieurs et d’établir des priorités en temps réel. Il constitue une excellente démonstration du potentiel d’automatisation de la gestion des tâches par l’IA. Pour arriver à ses fins, Baby AGI combine les API GPT-4 d’OpenAI pour acquérir ses capacités de traitement du langage naturel (et obtenir les nouvelles tâches à réaliser en fonction de l’objectif), le service Pinecone pour stocker les résultats de chaque tâche et récupérer les contextes, et le framework LangChain pour gérer tout son processus de décision.
Si Auto-GPT et Baby-AGI sont essentiellement des outils de développeurs par des développeurs, le service AgentGPT se veut plus accessible et plus convivial tout en visant un peu le même objectif : automatiser des tâches en s’appuyant sur la puissance des LLMs (et plus particulièrement GPT-4). AgentGPT de Reworkd.ai permet d’assembler, configurer et déployer des agents IA autonomes depuis un simple navigateur Web.
Se passer un peu plus de l’humain ?
Tous ces projets visent le même objectif : limiter à zéro l’intervention humaine pour réaliser des tâches (c’est pourquoi on les surnomme parfois les ‘God Mode’ des IA), l’humain n’ayant plus ici qu’un rôle de superviseur avec la capacité d’appuyer en urgence sur le bouton STOP si tout part de travers et à condition qu’il ne soit pas parti dormir ou manger à ce moment-là.
Mais force est de reconnaître que certains expérimentateurs ont déjà réussi à utiliser ces « Agents IA » ou « Agents autonomes » pour accomplir des tâches complexes comme exécuter une stratégie de vente ; réaliser un podcast sur un thème donné ; écrire, tester et exécuter de façon totalement autonome un script Python ou un jeu en JavaScript ; commander une pizza ; etc. Et dans chaque cas, avec une seule interrogation pour fixer l’objectif.
À LIRE AUSSI :
Bien sûr, il s’agit là surtout d’expérimentations techniques qui, pour être tout à fait honnêtes, font beaucoup parler d’elles dans la twittosphère, mais restent difficilement accessibles au commun des mortels (même AgentGPT et son interface Web). Elles font plus les affaires de petits malins qui montent d’éphémères business autour de la hype engendrée qu’elles n’ont la capacité à impacter le Business d’une entreprise.
De façon ironique, tous ces projets sont cependant en avance sur les concepteurs d’OpenAI et Microsoft. OpenAI a dévoilé il y a quelques semaines un SDK de création d’agents dans ChatGPT. Mais cet usage est pour l’instant très contrôlé et surtout en bêta test fermé. Microsoft travaillerait aussi sur des agents autour de Bing Copilot, mais l’éditeur freine pour l’instant ce développement afin d’être sûr de bien l’encadrer. Tous les projets évoqués ci-dessus, portés par les communautés open source, n’ont ni ces freins, ni ces contraintes ! Un sujet d’inquiétude à court terme mais qui peut aussi être un atout sur le long terme.
Attention, danger… mais raison garder.
Ces nouvelles IA sont intéressantes parce qu’elles démontrent qu’il n’est nullement besoin d’attendre les fameuses « AGI » (ou intelligence artificielle générale) pour voir les IA agir de façon autonome. Le schéma général actuellement pris par l’IA est d’avoir une IA capable de découper un objectif en tâches. Tâches qui sont détaillées par des LLMs puis découpées en sous-tâches qui sont concrétisées par des appels à d’autres IA ou à des API concrétisant une réservation, un achat, une action.
À LIRE AUSSI :
Mais ces IA “qui rêvent d’autonomie” contribuent aussi à faire monter l’inquiétude alors que certains affirment déjà que l’IA nous exterminera tous ou qu’il faut mettre en pause tous ces développements le temps que les États puissent légiférer leur usage. Bien sûr, voir ces « agents » automatiser des tâches générées par des IA que l’on sait affabuler a de quoi inquiéter et inviter à la prudence. Et heureusement, leur accès au monde physique reste encore limité. Mais une à une, les frontières entre le monde physique et le monde virtuel s’estompent. À un rythme qui n’est clairement pas celui des politiques et des sociétés.
Reste que ces IA sont bien plus artificielles qu’intelligentes. Elles n’ont pas de réelle compréhension du sens de ce qu’elles disent et font, et encore moins de désir (qu’il soit de soumission ou de domination). Il est néanmoins essentiel de travailler à rendre ces IA plus cohérentes, plus sûres, plus pilotables. Et se demander s’il n’est pas temps – pour les législateurs et plus encore pour tous les chercheurs en IA – de s’inspirer des trois règles de la robotique d’Asimov pour élaborer des principes fondateurs de design à toute IA. Ce qui bien évidemment n’empêchera jamais l’humain de faire ensuite n’importe quoi avec ces technologies…
À LIRE AUSSI :