Data / IA
Laurent Daudet (LightOn) : « Il ne faut pas étouffer l’innovation en imposant à l’IA des contraintes juridiques insupportables »
Par Thierry Derouet, publié le 15 décembre 2023
Il y a un an, un outil allait marquer une rupture dans le paysage technologique : ChatGPT était mis en ligne. Pour célébrer cet anniversaire, nous avons rencontré Laurent Daudet, CEO de LightOn, dans un café parisien pour évoquer avec lui l’effervescence du sujet et les progrès à venir.
Un an après le lancement de ChatGPT, Laurent Daudet partage lors d’une rencontre dans un café parisien son point de vue sur les avancées de l’IA générative. Il insiste sur l’importance d’une évolution technologique rapide, marquée par les applications pratiques et une personnalisation de plus en plus fine, tout en soulignant la nécessité d’une réglementation équilibrée qui encourage un environnement diversifié et ouvert dans le domaine de l’intelligence artificielle.
Un an après ChatGPT, quel enseignement en retenir ?
Laurent Daudet (LightOn) : « Nous pouvons remercier ChatGPT d’avoir permis de démocratiser une technologie qui était auparavant un peu obscure. Ça fait environ une dizaine d’années que ces technologies sont en cours de déploiement. Mais ce qui est vraiment nouveau, c’est le côté génératif : cela concerne ce qu’il est possible de faire, où à chaque étape nous repoussons un peu plus les limites, avec des inquiétudes, fondées ou non.
Ce qui est révolutionnaire, c’est d’abord cet aspect génératif ; contrairement aux IA traditionnelles centrées sur l’analyse, nous générons désormais du texte, et à terme des images et des vidéos, le tout dans une grande variété de styles et de contextes, avec une qualité très proche de l’humain.
Ensuite, c’est la première fois que nous voyons des IA avec ce que l’on appelle des propriétés émergentes, à savoir la capacité à exécuter des tâches sur lesquelles elles n’ont pas été explicitement entraînées. Par exemple, mon ChatGPT n’a pas été formé spécifiquement pour créer des posts Instagram, mais si on le lui demande, il peut en générer un, cinq, dix, ou deux cents. En tant que spécialiste de l’IA, cela nous a vraiment stupéfiés. C’est le résultat de la mise à l’échelle des modèles, des modèles à 175 milliards de paramètres formés sur des milliards de mots.
Et le troisième aspect révolutionnaire, c’est cette interface de langage naturel : grâce à des outils comme ChatGPT, l’IA n’est plus seulement l’apanage des ingénieurs et des spécialistes, elle devient l’affaire de tous. Tout le monde commence à comprendre à quel point cela peut changer leur travail ou leur profession, offrant de nouvelles opportunités, mais apportant aussi un lot de défis sociétaux qui surgissent à grande vitesse. C’est cette accélération qui est saisissante : alors qu’auparavant nous observions une avancée intéressante par mois, nous sommes maintenant face à une avancée par jour. »
Quand vous voyez les annonces de Google, qu’en penser ?
Laurent Daudet (LightOn) : « Nous assistons à une surenchère : un mélange de battage médiatique et de réalisations tangibles. Il y a des développements qui sont déjà mis en production, ce qui suggère que ce n’est pas une bulle. Ce n’est pas une illusion, c’est ancré dans des applications pratiques qui, dès maintenant, transforment des professions. Prenez par exemple le secteur du support client, les centres d’appels sont actuellement en pleine mutation à cause de ces technologies, avec des agents qui seront mieux équipés, plus rapides et plus efficaces, donc certains métiers sont déjà confrontés à cette nouvelle réalité. Néanmoins, il est crucial d’être pragmatique, car pour les entreprises, le véritable enjeu est le retour sur investissement. Les attentes actuelles sont celles de gagner du temps pour répondre à une question professionnelle spécifique, ou de pouvoir exploiter un contexte particulier avec des données sécurisées de l’entreprise, facilitant ainsi l’intermédiation via des CRM. Nous commençons donc à voir émerger toute une série de scénarios applicables. Cependant, il existe encore cette sorte de quête pour la création de valeur ajoutée qui semble être en suspens. »
Il est crucial d’être pragmatique, car pour les entreprises, le véritable enjeu est le retour sur investissement
La crainte de suppressions de postes est donc justifiée ?
Laurent Daudet (LightOn) : « Je ne crois pas qu’il s’agisse d’éliminer l’humain de l’équation. Prenons l’exemple des centres d’appels : nous avons discuté avec des assureurs qui ont pour objectif de diviser par trois le temps passé au téléphone par leurs clients. Ce sont des buts très précis et mesurables. En comparant la performance d’un individu travaillant seul avec ses dossiers papier à celle d’un autre soutenu par des outils d’IA, on peut clairement voir le potentiel de retour sur investissement. La question est de savoir si nous pouvons réellement atteindre cet objectif de réduction par trois. Nous sommes en train de tester pour voir si cela fonctionne. »
L’IA c’est aussi une opportunité pour repenser le travail ?
Laurent Daudet (LightOn) : « Effectivement, ce que nous observons actuellement dans les entreprises c’est que les besoins exprimés s’orientent vers une optimisation des processus existants. Les entreprises se demandent : “Voici mes opérations actuelles, elles ne sont pas très efficaces, ou je perds du temps, ou il y a des tâches répétitives qui ne requièrent pas une grande valeur ajoutée de ma part. Est-il possible pour la machine de prendre en charge ces 80 % de tâches répétitives afin que je puisse me concentrer sur les 20 % nécessitant réflexion et expertise ?” C’est un scénario fréquemment rencontré. Cependant, après cette phase d’adoption de la technologie, vient la réflexion sur l’avenir : que pouvons-nous imaginer pour les nouvelles applications que la machine pourrait réaliser et que nous ne sommes pas encore en mesure de faire, contribuant ainsi à une augmentation de la productivité de l’ordre de 20 %, 30 %, etc. ? »
L’IA ne sait pas encore raisonner. Mais en revanche, elle sait trouver les chemins qui amènent au raisonnement…
Laurent Daudet (LightOn) : « Actuellement, nos analyses et capacités de raisonnement, ce que nous appelons le “planning and reasoning”, restent principalement dans le domaine de la recherche. Un ChatGPT, par exemple, n’a pas la capacité de planifier ou de raisonner par lui-même. Cependant, nous sommes conscients que si ces systèmes sont bien structurés et entraînés sur des problématiques spécifiques, ils pourront exceller dans ces tâches. C’est cette direction que nous prenons.
L’approche tend à évoluer : les entreprises utilisent des modèles préexistants pour une période, mais l’aspect vraiment captivant émerge lorsqu’elles commencent à accumuler suffisamment de données propres à leurs opérations pour pouvoir affiner (“fine-tuner”) un modèle spécifique à leurs besoins. Ce qui se profile à l’horizon, c’est l’acquisition non pas d’un modèle unique, mais d’un accès à des modèles personnalisables, et la possibilité de les ajuster en fonction de cas d’usage et de métiers spécifiques. Ceci pourrait impliquer l’usage de modèles de différentes tailles, selon la complexité du problème à résoudre. Nous privilégions donc une approche diversifiée et personnalisée.
En ce qui concerne la formation de ces modèles, nous devons être vigilants : en créant des contenus générés par IA qui alimentent à leur tour l’IA, nous devons éviter le piège de l’auto-alimentation qui pourrait introduire des biais. Nous préférons maintenir ces systèmes au sein de l’environnement privé des entreprises. Loin du modèle d’Open AI, qui lui se nourrit des données du monde entier. Cela garantit que les modèles ne se développent qu’avec des données pertinentes et sécurisées. Malgré la nécessité de nourrir continuellement ces modèles, nous nous concentrons sur les domaines d’activité spécifiques et sur le partage de données de qualité dans des secteurs spécifiques, ce qui est crucial pour les entreprises. Nous collaborons étroitement avec des experts de divers secteurs, qui nous fournissent des données fiables, comme nous le faisons pour créer un assistant médical à partir de données hospitalières de haute qualité.
Il y avait cette entreprise aux États-Unis qui cherchait à développer un assistant médical spécifique à leur marché. Ils possédaient une quantité considérable de données propriétaires et souhaitaient mettre en place un chatbot médical, surtout parce qu’il y avait une pénurie de médecins là-bas. Ils ont fait le calcul : avec des professionnels rémunérés 80 dollars de l’heure, même une automatisation de seulement 5 % des tâches représentait une économie substantielle. Ils sont donc venus à nous avec leurs données. Bien entendu, nous n’avons pas directement examiné ces données, car ce n’est pas notre expertise. Nous ne sommes pas spécialistes des données médicales ou juridiques. Notre rôle est plutôt de fournir une plateforme agnostique par rapport aux secteurs verticaux, de collaborer avec des partenaires qui nous garantissent la fiabilité et la pertinence des données pour leurs domaines spécifiques. »
Qui sont vos principaux clients ?
Laurent Daudet (LightOn) : « Notre principal focus commercial se porte actuellement sur les grands comptes, en raison de leur gestion de l’information complexe et disparate répartie sur de multiples systèmes. Nous pensons que les Large Language Models (LLM) représentent la technologie clé pour organiser, et donner, cohérence à cette complexité, agissant comme des orchestrateurs de l’information dans les systèmes d’information des grands comptes.
Notre plateforme, Paradigm, permet de déployer ces LLM de manière sécurisée et robuste, capable de gérer simultanément les requêtes de nombreux utilisateurs. Nous accompagnons nos clients dans l’utilisation optimale de ces modèles. En y incluant, la création de prompts pertinents, comme la gestion des paramètres. Avec notre système de suivi et notre approche personnalisée, nous ajustons les modèles selon les retours et les besoins spécifiques des utilisateurs.
En outre, nous proposons les systèmes RAG (Retrieval Augmented Generation), une combinaison d’IA générative et d’un moteur de recherche interne, permettant aux clients de poser des questions en langage naturel sur leur propre base documentaire. Ce système garantit que l’information provient uniquement des documents fournis, avec notre LLM, Alfred, qui indique clairement lorsqu’il ne dispose pas de l’information requise. Cette approche générique s’applique à divers besoins, comme le support client, la R&D, la production ou les RH, et permet une gestion efficace des connaissances métier. »
Votre plateforme ne s’adresse qu’aux grands comptes ?
Laurent Daudet (LightOn) : « Nous développons cette technologie pour les grands comptes et commençons également à collaborer avec le secteur public, ce qui inclut la DGFIP, le réseau rural d’Île-de-France, et le ministère des Armées, en adaptant nos solutions à leurs besoins spécifiques de grande volumétrie de données. La puissance de l’IA générative est sérieusement prise en compte, y compris pour ses applications potentielles.
Enfin, la bonne nouvelle est que les infrastructures cloud nécessaires pour exécuter correctement ces modèles sont désormais plus accessibles grâce à l’engagement des fournisseurs de cloud, y compris les hyperscalers et les clouds français comme Scaleway, OVH, et Outscale, malgré les tensions sur les ressources et les coûts associés. »
Pour entraîner des modèles d’IA, il est possible de passer outre les gros hyper scalaires ?
Laurent Daudet (LightOn) : « Les clients disposent actuellement d’un large éventail de choix pour l’hébergement cloud, essentiel pour l’inférence et le fonctionnement des modèles d’IA. Bien que l’entraînement de modèles de grande envergure, tels que ceux comptant 40 milliards de paramètres, demeure le domaine des gros acteurs comme AWS où nous avons effectué nos propres entraînements, l’infrastructure nécessaire à l’inférence est désormais largement accessible. Cette évolution récente traduit une prise de conscience significative du secteur. Nous avons collaboré avec Docapost sur une infrastructure Outscale labellisée SecNumCloud, une démarche cruciale pour des applications sensibles telles que celles de la santé. Quant aux acteurs publics, ils peuvent avoir besoin de recourir à du cloud souverain français, qui, malgré l’usage variable du terme “souverain”, est disponible pour soutenir de tels projets.
Nous avons collaboré avec Docapost sur une infrastructure Outscale labellisée SecNumCloud, une démarche cruciale pour des applications sensibles telles que celles de la santé
Concernant la régulation, la France a adopté une position proactive, plaidant pour ne pas abandonner la technologie exclusivement aux États-Unis. Il est essentiel de maintenir un écosystème diversifié d’acteurs, y compris en Europe, où nous nous positionnons avec des acteurs allemands et scandinaves non loin derrière OpenAI. Sans prétendre égaler OpenAI, nos modèles rivalisent en qualité avec GPT-3.5, couvrant une large gamme de cas d’usage. Il est crucial que la réglementation n’entrave pas l’existence de modèles ouverts, car cela pourrait limiter la concurrence et l’innovation dans le domaine de l’IA. »
Cette régulation va pour vous dans le bon sens ?
Laurent Daudet (LightOn) : « Il y a actuellement une prise de conscience accélérée, une maturité et une compréhension qui évoluent rapidement. La position de la France, qui se fait de plus en plus positive dans ce domaine, s’aligne sur cette évolution. Lors des négociations, la France a adopté une posture proactive, en soulignant que nous ne pouvons pas laisser la technologie entre les mains exclusives des Américains. Il ne convient pas de permettre aux États-Unis de réguler des modèles fermés et de se refermer sur eux-mêmes. Il est essentiel d’ouvrir la voie à une diversité d’acteurs, y compris ceux situés en Europe.
Nous devons veiller à ce que la réglementation ne supprime pas les modèles ouverts. Nous plaidons pour leur existence, car ils sont essentiels. Nos modèles sont accessibles sur Hugging Face, où ils peuvent être librement utilisés, téléchargés et testés. Cela permet à chacun d’évaluer leur applicabilité, de détecter d’éventuels biais et de mesurer les risques.
Nous croyons que la réglementation doit se concentrer sur les cas d’usage, pas sur la technologie en elle-même. Par exemple, si vous utilisez notre LLM pour filtrer des CV, vous pouvez définir précisément ce qu’est un biais dans ce contexte et assurer une utilisation équitable. La réglementation devrait donc se baser sur l’usage réel de la technologie et non sur ses seules spécifications techniques. Il est important d’avoir un équilibre des responsabilités et de permettre à la technologie de continuer à évoluer. Il faut instaurer un cadre réglementaire responsable pour utiliser l’IA, comparable aux normes de sécurité pour les automobiles, plutôt que de charger uniquement les développeurs de la responsabilité.
Nous croyons que la réglementation doit se concentrer sur les cas d’usage, pas sur la technologie en elle-même
Les modèles ouverts doivent rester accessibles, sans quoi on risque de freiner l’innovation et la diversité dans le domaine de l’IA. Si la réglementation devient trop contraignante, cela pourrait conduire à une situation où les créateurs de ces modèles pourraient être tenus responsables de leur mauvaise utilisation, ce qui pourrait les dissuader de les partager librement. Il est donc crucial de ne pas étouffer les modèles ouverts par des réglementations excessives. »
On a vu Microsoft comme Google proposer de protéger leurs clients en cas d’anomalie ou de violation des droits d’auteur
Laurent Daudet (LightOn) : « Les grandes entreprises comme Microsoft et OpenAI disposent de ressources considérables, y compris des équipes juridiques de premier ordre. Leur discours, souvent axé sur leur capacité supérieure à offrir sécurité et conformité, peut être perçu comme une tentative d’établir une suprématie sur le marché, potentiellement au détriment de la concurrence. Or, la concurrence est essentielle. Bien que nous reconnaissions la qualité des services offerts par ces grandes entités, nous croyons fermement à l’importance de la diversité des acteurs dans le domaine de l’intelligence artificielle. Une situation de monopole n’est jamais idéale. C’est pourquoi il est vital de maintenir et de promouvoir des alternatives qui garantissent un écosystème dynamique et innovant. »
Comment voyez-vous la suite ?
Laurent Daudet (LightOn) : « En ce qui concerne les perspectives à court terme, sur une période de cinq mois, notre vision est axée sur la mise en production concrète. Nous sortons de la phase de test pour certains cas d’usage avec nos premiers clients, et nous entrons dans une phase où ces modèles seront réellement déployés dans un cadre opérationnel en 2024. La personnalisation des modèles d’IA sera également un domaine clé, avec une diversification accrue au-delà des modèles génériques. Nous envisageons une personnalisation poussée, à tel point que dans les années à venir, chaque individu pourrait avoir son propre modèle de langage personnalisé (LLM) agissant comme un assistant personnel hautement adapté et respectueux de la vie privée. Cela signifie que votre assistant IA connaîtrait et respecterait vos préférences personnelles, sans que vos données soient mélangées ou compromises.
Chaque individu pourrait avoir son propre modèle de langage personnalisé (LLM) agissant comme un assistant personnel hautement adapté et respectueux de la vie privée
Quant aux inquiétudes soulevées par certains scientifiques sur les capacités et les directions futures de l’IA, je les considère comme des distractions par rapport aux véritables problèmes. Les scénarios alarmistes de “Terminator” ou d’une IA autonome relèvent de la science-fiction et éclipsent les réels défis sociétaux, comme les impacts sur l’emploi, la qualification des travailleurs, ou le copyright. Il est crucial de se concentrer sur ces enjeux et d’apporter des solutions adéquates dès maintenant, plutôt que de se perdre dans des spéculations sur une intelligence artificielle généralisée prenant le contrôle, ce qui est loin de la réalité actuelle des laboratoires et du développement technologique. »
Que dire de l’hystérie autour de l’IA, par exemple, avec ce qui s’est passé chez Open AI ?
Laurent Daudet (LightOn) : « Ce que nous observons dans la Silicon Valley relève parfois d’un mythe autoentretenu, où l’on proclame être tellement en avance qu’on en devient intouchable. C’est comme si la valeur exorbitante d’une entreprise justifiait une avance technologique incontestable, au point de semer la peur parmi les scientifiques eux-mêmes. Mais il est essentiel de le démystifier et de le dédramatiser. Ce que fait OpenAI, par exemple, est remarquable; ils produisent des modèles statistiques qui trouvent des applications pratiques et raisonnables, bien qu’il ne s’agisse pas d’une intelligence véritable au sens humain du terme. Peut-être que dans un futur lointain, nous nous rapprocherons davantage de ce concept, mais pour l’instant, nous devons reconnaître que ces outils sont puissants et capables de résoudre des problèmes très spécifiques qui auraient été difficiles à imaginer il y a quelques années.
En tant qu’entreprise active dans ce domaine, il est exaltant de faire partie d’une véritable révolution technologique en matière d’IA. Tous les jours, je suis émerveillé par les avancées que je vois, malgré l’hystérie et les annonces sensationnelles qui peuvent parfois exagérer la réalité. Mais contrairement aux craintes d’un “hiver de l’IA” comme nous en avons connu par le passé, je suis convaincu que nous ne reviendrons pas en arrière. Les IA sont déjà en production et utilisées dans des scénarios réels, générant des économies et des gains de productivité pour les entreprises. Elles ouvrent également un monde de possibilités pour les entrepreneurs astucieux, qui peuvent désormais démarrer des projets sans certaines compétences traditionnellement nécessaires, comme le graphisme, grâce aux outils de génération d’images. L’univers des possibilités s’étend avec l’IA, et cela, à mon avis, est simplement extraordinaire. »
La machine à coder toute seule, possible, pas possible ?
Laurent Daudet (LightOn) : « La “machine à coder”, c’est-à-dire les outils d’assistance à la programmation comme GitHub Copilot, est déjà une réalité dans notre quotidien. Elle a transformé le codage en une forme d’assemblage, où l’on compile des fragments de code pour construire des solutions. Cette mutation a déjà permis d’augmenter la productivité des développeurs de 20 à 30 %, un gain considérable grâce à l’intelligence artificielle. Le domaine du codage est vaste et les outils d’IA y sont déjà efficaces. Ainsi, il n’est pas question de régression ou d’un “hiver de l’IA”; les gens ne cesseront pas d’utiliser ces technologies. Bien sûr, toutes les promesses ambitieuses de l’IA ne se réaliseront pas, mais c’est inhérent à l’évolution de toute nouvelle technologie. »
Et cette préoccupation concernant la consommation énergétique ? L’IA doit-elle être au plus proche de l’utilisateur ?
Laurent Daudet (LightOn) : « La solution Edge computing n’est pas nécessairement la plus économique comparée aux Data Centers. Ces derniers, avec des machines fonctionnant à 95% de leur capacité en continu, atteignant un Power Usage Effectiveness (PUE) de 1,1, se révèlent être plus économes en énergie. C’est pourquoi le modèle de cloud computing reste avantageux. Concernant les pré-calculations sur les machines, elles sont possibles, et il est clair qu’il y aura un besoin de modèles plus petits et plus efficaces. Il n’est pas nécessaire d’avoir des modèles de 180 milliards de paramètres pour chaque application. Des modèles plus compacts et intelligents sont indéniablement l’avenir, ainsi que des puces spécialement conçues pour ces tâches. Les constructeurs s’orientent déjà vers des puces optimisées pour ces défis spécifiques. Les enjeux liés à la consommation d’énergie et aux ressources sont réels et nécessitent une attention particulière. Il est essentiel de les adresser de manière proactive. »
À LIRE AUSSI :