Data / IA
IA : attention à la crise de NeRF !
Par La rédaction, publié le 26 juillet 2024
Au commencement était le Verbe, (…) et le Verbe était Dieu ». Ce début de l’Évangile selon Jean est devenu étonnement contemporain depuis que l’IA manie le langage avec une surprenante virtuosité, au point que l’humanité s’inquiète de cet outil au potentiel démiurgique.
Parole de DSI / Par Patrick Duverger, Directeur des moyens généraux et des systèmes d’information de la Ville d’Antibes
L’arrivée en fanfare de l’IA et des LLM (large language models) dans le grand public a mis les DSI sous pression. Et cette fois, ça n’a pas l’air seulement d’un effet de mode.
Tandis que, depuis toujours, le numérique se cantonne au traitement de l’information, avec l’IA générative, l’informatique devient productrice de ladite information, et cela change radicalement la donne. Il faut donc répondre à la demande et fournir des outils capables de produire de l’intelligence. Mais face à ces exigences, de quoi dispose-t-on ? De chatbots intelligents qui peuvent donner la date de naissance de Napoléon, ou s’avérer mégalos si la question est posée de manière orientée ? Pas sûr qu’il faille s’empresser de souscrire un abonnement pour cela et, en plus, de rediriger les informations sur des serveurs américains afin d’obtenir des réponses qui échappent à tout contrôle…
Une première réponse consisterait à héberger son propre LLM dans son intranet, ou dans son cloud de confiance, et tenter de maîtriser les entrées sorties de cette IA « in house », voire de maîtriser son entraînement. Mais, à moins de convertir la DSI en bataillon d’experts en data science, point de salut…
Quelles options reste-t-il ? Les vendeurs de lingerie le savent très bien : moins il y a de tissu, plus c’est attractif. Les « Tiny LLM » ou SLM (small language models) ont une capacité linguistique générale et des capacités de raisonnement, alors que leurs poids est 1 000 fois moindre.
Loin des effets d’annonce, c’est bien là que va se situer la révolution opérationnelle de l’IA : des Tiny LLM spécialisés pour des fonctions immédiatement utiles dans l’organisation, et dont l’inférence peut s’exécuter sur un desktop, une tablette, un chromebook, voire même un smartphone.
Les Tiny LLM offrent la possibilité de développer des solutions d’IA locales, sécurisées et complètement autonomes, sachant que la phase d’entraînement reste l’affaire des experts et utilise des ressources beaucoup moins sobres, à moins de se tourner vers des sites comme Hugging Face qui fournissent pléthore de modèles déjà entraînés.
Rien de tel qu’un exemple pour mieux comprendre. Dans son immense bonté réglementaire, l’État impose aux collectivités de verdir leur budget, c’est-à-dire de confronter chaque imputation budgétaire aux objectifs de transition écologique. Lorsqu’on a un budget de plusieurs milliers de lignes à comparer avec, par exemple, les 17 ODD (objectifs de développement durable) de l’ONU, cela fait un travail de plusieurs dizaines de milliers de comparaisons. À supposer que quelqu’un lira le résultat de cet immense travail, ce sont des centaines d’heures de réunions passionnantes qui pourraient être économisées en automatisant la tâche. Or, comparer la sémantique d’une opération budgétaire à partir de tous les champs issus de l’ERP de gestion comptable avec la sémantique de chaque objectif de développement durable, les LLM savent très bien le faire ! Mieux encore, les Tiny LLM font le travail en un temps record ! À titre d’exemple, le logiciel VisioMapAI de Apsys Business Partner est capable d’exécuter un Tiny LLM dans une page web (en pur javascript avec du Wasm) qui fait le travail en moins de 15 minutes sur un budget de plus de 3 000 lignes.
Déporter l’IA dans le edge – mettre l’intelligence côté client –, cela signifie économiser une gestion serveur onéreuse et complexe qui doit distribuer la charge, gérer les sessions et garantir la sécurité des données. Mais si c’est le modèle, le Tiny LLM, qui vient à la donnée sur le poste du client dans le navigateur, alors la sécurité n’est plus un problème, car aucune donnée ne transite sur le réseau.
Un autre exemple qui pourrait impacter significativement les DSI réside dans une approche radicalement innovante du jumeau numérique grâce à l’IA. La réplication numérique d’objets 3D et leur décomposition élément par élément – qu’il s’agisse d’une ville, d’une maquette BIM, ou d’un moteur –, peut considérablement bénéficier des performances de l’IA dans la mesure où les NeRF (Neural Radiance Fields) facilitent la numérisation 3D de tout objet physique. Pour rappel, un NeRF, ou champ de radiance neuronale, est un réseau de neurones utilisé pour reconstruire une scène 3D à partir d’images 2D éparses. Cette approche est radicalement innovante car la façon dont le réseau neuronal s’approprie la 3D n’a rien de géométrique. Il en résulte un modèle très léger dont les performances sont surprenantes.
Les opportunités liées à l’IA sont nombreuses et les enfermer dans la question « pour ou contre » n’est pas forcément constructif, même si cela occupe les amateurs de débats. Chez l’Homme – pas tous… –, entre le constat et l’action, il y a la pensée. Dans l’IA c’est immédiat. Utilisons donc l’IA pour ce qu’elle sait faire : de l’aide à la décision et pas plus. Jamais le vieil adage « Science sans conscience n’est que ruine de l’âme » n’a autant fait écho aux débats éthiques sur l’IA.
À LIRE AUSSI :
À LIRE AUSSI :