Data / IA
Quand ChatGPT pose question
Par François Jeanne, publié le 17 avril 2023
Encore un mois truffé d’annonces sur le front des IA génératives… Le pilonnage médiatique continue de la part de Microsoft, Google, Meta et autres éditeurs de tous bords. Tandis que les débats éthiques ou juridiques font rage, il devient urgent dans les DSI de se faire une religion peut-être, une stratégie sûrement.
Trois mois après le lancement réussi de ChatGPT adossé à GPT-3.5 dans le grand public, l’annonce le mois dernier de la version 4.0 a sans surprise entretenu l’effervescence sur le front des IA génératives. Ceux qui ont pu l’essayer témoignent de ses avancées, du fait notamment de sa capacité à traiter des images (analyse et génération). Toutefois, comme en version 3.5, sa lecture des données publiques de l’internet s’est arrêtée en octobre 2021.
Depuis son arrivée, annonces et pré-annonces se succèdent de la part des grands acteurs qui l’intègrent dans leurs offres ou proposent leur propre IA générative. Après quelque 10 Md$ investis dans OpenAI, Microsoft est le plus dynamique, avec déjà son implémentation dans une grande partie de son offre (moteur de recherche, ERP et suite bureautique en tête mais aussi outils de cybersécurité) sous le nom de Copilot, pour réaliser les tâches les plus rébarbatives et « booster la productivité des utilisateurs ». En embuscade, Salesforce promet avec son Einstein GPT des interactions encore plus intelligentes avec son CRM ; l’éditeur de la plateforme low-code Pegasystems intègre aussi ChatGPT à sa solution PegaInfinity, pour permettre l’exécution des tâches via des requêtes simples en langage naturel ; la suite bureautique open source OnlyOffice en bénéficie également à travers un plugin – et dans ce cas un abonnement payant.
Parmi les résistants figurent Meta, Google et Amazon. L’initiative du premier, LLaMA (Large Language Model Meta AI), est d’ores et déjà accessible aux chercheurs issus du public ou de la société civile. Elle devrait se concrétiser pour le grand-public avant la fin de l’année.
Après une première apparition décriée, en février, le chatbot du second, Google Bard, a fait ses premiers pas très discrets (et limités aux anglophones) ces derniers jours. Quant au troisième, il évite l’affrontement direct pour l’instant et préfère s’adresser aux développeurs en leur proposant une nouvelle API, Amazon BedRock, qui leur permet d’accéder à plusieurs modèles fondamentaux dont les LLMs de AI21Labs (Jurassic-2) et d’Anthropic (Claude), le modèle de génération d’images de Stability AI (Stable Diffusion) et deux modèles LLM “maison” connus sous le nom de Amazon Titan.
Bien sûr, dans cette lutte tous azimuts, ce sont, in fine, les utilisateurs qui trancheront…
Des inquiétudes légitimes
Comment rester serein et raisonnable sous cette avalanche d’annonces ? Les questions ne manquent pas.
Ainsi, l’Italie, l’Allemagne mais aussi la France (via la CNIL) s’inquiètent de l’utilisation des données privées par ces intelligences artificielles, à commencer par ChatGPT et leur exploitation dans le ré-entraînement de ces IA.
Laurence Devillers, chercheuse au CNRS, alerte aussi sur le fait que ces outils, entraînés en majorité sur des textes en anglais, risquent d’asseoir l’hégémonie culturelle et économique anglo-saxonne.
Sans compter les inquiétudes : une étude Sortlist auprès d’utilisateurs de six pays européens, dont la France, indique que 50% des employés pensent que leur productivité au travail pourrait être multipliée par deux ou trois… Mais 21 % ont peur que ChatGPT ou ses petits frères prennent leur place.
À LIRE AUSSI :
Par ailleurs, l’association Future of Life a publié une lettre ouverte réclamant une mise en pause immédiate pour au moins trois mois de l’entraînement de systèmes IA plus puissant que GPT-4. La lettre a été très médiatisée parce que signée notamment des lauréats du prix Turing, par Steve Wozniak et par Elon Musk (qui, dans un revers de veste, annonçait une semaine plus tard la création de sa propre startup dédiée à l’IA, X.IA). Une lettre qui n’a eu d’écho que dans les médias, tous les acteurs s’accordant à dire que la R&D devait au contraire se poursuivre pour masquer les défauts de ces premières IA et les rendre “plus précises, plus sûres, plus transparentes, plus fiables et plus loyales“… comme le demandent justement les auteurs de cette fameuse lettre. Reste que cette missive encourage l’Europe dans son ensemble à accélérer la marche dans l’adoption de son “AI Act”.
Ces derniers mois ont également vu s’agiter le monde des avocats, à la fois tentés de se servir de ces outils pour rédiger – avec succès – leurs plaidoiries, mais aussi de porter plainte contre ceux qui les utiliseraient.
La vraie question est surtout : qui sera responsable lorsqu’une décision appuyée sur une IA générative sera contestée en justice ?
Une stratégie à définir
En attendant que tout ce beau monde annonce les tarifs de ses outils, puisqu’ils se contentent pour l’instant de créer le besoin pour ensuite le facturer, les DSI doivent profiter de ce délai pour s’organiser. C’est-à-dire, dans un premier temps, explorer leur potentiel, sans oublier les versions alternatives à ChatGPT (Midjourney, Stable Diffusion, Jarvis, GitHub Copilot, Synthesia, GauGAN, etc.) selon les besoins à couvrir.
À LIRE AUSSI :
Un dialogue sincère doit donc s’instaurer avec les métiers pour définir les cas d’usage, mais aussi déminer les utilisations erronées voire dangereuses.
Parallèlement, il s’agira de travailler avec les fournisseurs pour bien dimensionner les architectures sous-jacentes et connecter les API aux applications concernées. Un travail de taille mais passionnant, comme nous le montre Patrick Duverger, DSI de la Ville d’Antibes, dans le nouveau numéro (2282) du magazine IT for Business.
Et, surtout, un débat qui mérite d’instaurer le dialogue entre les « pour » et les « contre », y compris au sein de la DSI. Comme entre les réseaux de neurones d’un GAN en quelque sorte…
À LIRE AUSSI :
À LIRE AUSSI :