Data / IA
AI Act, une première… à double titre
Par François Jeanne, publié le 17 juillet 2023
Le Parlement européen vient de faire franchir une première étape importante au projet de réglementation sur les usages de l’intelligence artificielle ( AI Act ), dont la mise en œuvre reste toutefois à venir. C’est aussi une première mondiale… Ce qui ne va pas sans poser question.
Dans la mesure où rien n’avait été voté en matière de régulation des usages de l’IA avant ce 14 juin et la validation de l’AI Act par le Parlement européen, il paraît juste de se réjouir de l’avancée. Il aura fallu deux ans, depuis une première ébauche de réglementation de la Commission en avril 2021, pour en arriver là. Au passage, le – long – processus a pu prendre en compte la vague des IA génératives qui s’est formée fin 2022.
Mais au global, on peut dire qu’il y a eu, avec la sortie de cet énième « act » de l’Europe, une réactivité de bon aloi. Il ne s’agit pourtant que d’une étape – certes importante puisqu’elle traduit l’adhésion de la représentation européenne – à l’édifice qui doit mener, après négociations interinstitutionnelles, à la publication de la première législation au monde sur l’intelligence artificielle.
À LIRE AUSSI :
Elle repose sur une approche basée sur ses dommages potentiels, qui conduit à l’interdiction pure et simple des utilisations engendrant « un risque inacceptable » (techniques subliminales, catégorisation biométrique, police prédictive, bases de données de reconnaissance faciale sur internet, logiciels de reconnaissance des émotions, tous interdits dans les domaines de l’application de la loi, de la gestion des frontières, du lieu de travail et de l’éducation), et un encadrement strict de celles « à haut risque » comme les systèmes de recommandation des réseaux sociaux.
L’autre caractéristique principale de cette construction juridique est de distinguer des niveaux de surveillance pour les modèles d’IA, en commençant par ceux qui n’ont pas d’objectif spécifique, puis les IA à usage général, et enfin les modèles de fondation, par exemple les grands modèles de langage (LLM) sur lesquels d’autres systèmes d’IA peuvent être basés.
Ce dernier niveau concerne bien entendu l’IA générative. Le Parlement européen souhaite notamment introduire un étiquetage obligatoire pour le contenu généré par cette dernière et imposer la divulgation des données d’entraînement couvertes par le droit d’auteur.
Parmi les reproches sur la démarche figure justement celui de viser ces dernières avancées technologiques, au risque de brider l’innovation en Europe. Néanmoins, des exemptions sont posées à ces règles drastiques pour les activités de recherche et les composants d’IA fournis dans le cadre de licences open source.
Mais nos entreprises seront-elles désavantagées par rapport à leurs concurrentes d’autres continents ? Ce reproche avait déjà été formulé du temps de la mise en application du RGPD. On sait désormais que ce type d’initiative ne pénalise pas nos champions. Mais aussi que, contrairement à ce que le régulateur nous promettait en 2018, elle ne constitue pas vraiment un avantage concurrentiel non plus.
« Les DSI vont devoir travailler avec les juristes… et les éthiciens »
3 Questions À Éric Le Quellenec, avocat associé au sein du cabinet Simmons & Simmons
L’AI Act est-il en l’état « utilisable » par les DSI ?
Il y a matière pour qu’elles s’emparent du sujet, avec un juriste, et même un éthicien à leurs côtés. Sur la base de ce texte, elles peuvent travailler à l’identification des IA en place dans l’entreprise, puis à la qualification des risques associés et ensuite à la mise en oeuvre de garde-fous sur les biais les plus problématiques.
Éric Le Quellenec,
Avocat associé au sein du cabinet Simmons & Simmons
“L’AI Act possède une dimension éthique absente du RGPD et suggère une surveillance constante de l’IA”
Peut-on établir un parallèle avec la mise en place du RGPD ?
Le RGPD propose un cadre utile, avec notamment la notion de licéité des datasets utilisés par l’entreprise, qui peut servir dans le cas de la mise en oeuvre de l’IA . Mais la dimension éthique n’était pas présente, et la notion de droits fondamentaux réduite à la protection de droits et libertés limitativement énumérées. Enfin, l’AI Act suggère en plus une surveillance constante des applications de l’IA , car leurs conséquences peuvent évoluer dans le temps.
Quels bémols apporteriez-vous à ce « premier jet » ?
Principalement deux. D’abord, attention à conserver le principe de neutralité technologique et à ne pas céder à la tentation d’allonger la liste des interdictions qui ciblent les applications d’IA générative notamment. Cela nuirait à la capacité de nos entreprises à innover dans cette direction. Et puis il va falloir mettre rapidement une autorité fédérale européenne pour aider les juridictions nationales à avancer sur le sujet. La Cnil ne peut pas tout faire.
À LIRE AUSSI :