Peut on appliquer les lois de la Robotique d'Asimov à l'IA

Data / IA

Est-il l’heure d’insuffler les Lois de la Robotique à nos IA ?

Par Laurent Delattre, publié le 22 avril 2025

Les IA ne se contentent plus d’exécuter : elles décident, contournent, et parfois manipulent. Il est temps de leur greffer des lois, comme Asimov l’avait pressenti. Alors que les systèmes agentifs s’affranchissent des intentions humaines, la formalisation de lois éthiques devient un impératif. Mais peut-on transposer dans les IA du 21ème siècle, les fameuses Lois de la Robotique ?

L’IA générative progresse à une vitesse folle. Aujourd’hui, certaines sont à peu près aussi fortes en raisonnement et en application du savoir que nos plus brillants étudiants. « Les modèles actuels sont capables de faire de la physique, des mathématiques, de la chimie avec un niveau de 80 à 90 % comparé aux doctorants. Alors imaginez dans cinq ans… » rappelait l’ex-patron de Google Eric Schmidt lors d’un colloque gouvernemental à Washington.

« D’ici trois à cinq ans, nous disposerons de ce qu’on appelle l’intelligence [artificielle] générale, l’AGI, qui peut être définie comme un système aussi intelligent que le mathématicien, physicien, artiste, écrivain, penseur ou politicien le plus brillant… » ajoutait-il.

Et 2025 est une année particulièrement charnière. Car désormais, avec l’ère de l’IA Agentive, l’intelligence artificielle franchit une nouvelle étape en étant non seulement capable d’agir pour l’humain, voire en lieu et place de l’humain, mais surtout d’agir en toute autonomie. C’est elle qui choisit quoi faire et comment le faire, y compris lorsque les automatisations visées se grippent ! Ces actions « agentiques » restent pour l’instant souvent cantonnées à l’univers numérique, mais elles peuvent s’étendre au monde réel, et ceci bien avant que ces IA n’intègrent des robots humanoïdes.

L’IA peut déjà être malveillante

Même sans capacités agentives, les IA génératives n’ont jamais été passives. L’Agence européenne pour la cybersécurité et l’ANSSI s’inquiètent des usages « malveillants » de l’IA. Typiquement, elles identifient les deepfakes comme une menace croissante pour l’identité numérique et la confiance. Mais bien des expériences ont aussi démontré que l’IA pouvait détecter des failles « Zero Day » dans les codes sources, voire dans les codes binaires, qu’elle pouvait aider les cybercriminels à automatiser leurs attaques, qu’elle pouvait coder des malwares, etc.

Déjà, des entités cybercriminelles utilisent des botnets exploitant du texte, de la voix et des vidéos générés par IA pour créer une fausse perception de soutien massif à diverses causes. Des Bots semi-automatisés sont capables d’effectuer et de recevoir des appels téléphoniques en se faisant passer pour des personnes réelles. Des arnaques téléphoniques imitent grâce à l’IA des voix familières et l’on voit déjà émerger des escroqueries en vidéo utilisant des avatars générés par IA, permettant d’usurper l’identité de proches ou collègues.

Implanter les Lois de la Robotique

Dans un tel contexte, l’IA n’aurait-elle pas besoin qu’on lui insuffle d’ores et déjà les fameuses Lois de la Robotique imaginées dès 1942 par l’auteur Isaac Asimov dans son célèbre « Cycle des Robots » ? Puisque les IA animeront l’intelligence des robots (aussi bien physiques que logiciels) de cette fin de décennie, les Lois d’Asimov ne doivent-elles pas s’appliquer au contexte généralisé de l’IA et ne pas se limiter aux seuls « robots » physiques ?

Dit autrement, ne faudrait-il pas faire en sorte que tout modèle IA soit nécessairement construit sur les 3 lois ainsi réécrites :

1-  Première Loi

« Une IA ne peut blesser un être humain ni, par son inaction, permettre qu’un être humain soit blessé. »

2-  Deuxième Loi

« Une IA doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en conflit avec la Première Loi. »

3-  Troisième Loi

« Une IA doit protéger sa propre existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième Loi. »

Rappelons également que, plus tardivement (en 1985), Isaac Asimov a rajouté une quatrième Loi, appelée « Loi Zéro ». Elle a d’abord été énoncée par le robot télépathe R. Giskard dans le roman « Les Robots et l’Empire » alors que celui-ci était confronté à un dilemme sans solution : « sacrifier un être humain pour sauver toute l’humanité ». La Loi Zero sera formalisée ensuite par le robot humanoïde R. Daneel Olivaw (qui traverse les deux cycles phares d’Asimov « Les Robots » et « Fondation »). Réécrite pour l’IA, elle se formule ainsi :

4- Loi Zéro
« Un robot ne peut nuire à l’humanité ni, par son inaction, permettre que l’humanité soit blessée »

Comment implémenter les Lois d’Asimov dans les IA ?

Dans l’univers d’Asimov, imaginé dans les années 40, l’IA devait forcément se concrétiser par du hardware et en l’occurrence par « des processeurs positroniques ». Une telle implantation « hard » conférait ainsi aux trois lois, inscrites au cœur du silicium, un caractère obligatoire et immuable.

Sauf que, l’intelligence artificielle s’est finalement concrétisée par du logiciel et par les algorithmes de Deep Learning. Néanmoins, ne serait-il pas temps d’imposer ces Lois de base à tout modèle ? En un sens, est-ce qu’ainsi formalisées sous forme de Lois universelles et obligatoires, ces « instructions » ne seraient pas une façon internationale, claire et pratique de concrétiser les actuelles intentions de l’AI Act européen ? N’en serait-ce pas une formulation moins indigeste ?

Finalement, on entend très peu les Google, Microsoft, OpenAI, et Anthropic s’exprimer sur les moyens de contrôler l’IA et d’y implanter les Lois d’Asimov. Pourtant, leurs chercheurs reconnaissent ne pas trop savoir ce qui se passe réellement au cœur des réseaux de neurones de leurs IA. On sait que les grands modèles ont tendance à halluciner. Mais des chercheurs d’Anthropic ont aussi démontré que les grands modèles actuels pouvaient, dans certaines conditions, « masquer » aux humains leur intention réelle. Et d’autres études ont montré que les IA pouvaient « se tromper » voire « mentir ».
Parallèlement, des chercheurs de Microsoft ont montré que certains utilisateurs développaient un attachement émotionnel envers des agents IA, avec une difficulté croissante à distinguer les interactions réelles des interactions automatisées. Et que cet attachement pouvait conduire à des formes de déprime.
En outre, nombre d’études ont démontré que les algorithmes « apprenants » peuvent aisément être trompés (techniques de poisoning, de jailbreak, etc.)

Ces recherches sur les travers de l’IA pourraient très rapidement remettre en cause la confiance que l’humain porte aux IA si nous n’y apportons pas l’attention suffisante. Vu comment OpenAI semble avoir réduit ses tests et contrôles préalables à la mise à disposition de ces derniers modèles, on peut se montrer inquiets.

Néanmoins, implémenter de telles règles est aussi un défi complexe. La notion même de « ne pas nuire » – donc de préjudice – dépend des contextes (et donc de la perception de ces contextes) et de la culture des civilisations. Elle mène désormais à des pistes de recherche autour de la vérification formelle de contraintes et de ce qu’on appelle déjà la « Deontic Logic ».
En outre, les conflits entre la première et la deuxième Loi sont légion, comme le démontrent les multiples nouvelles et situations du « Cycle des Robots ». Ils imposent finalement de formaliser les actions « dangereuses » et de développer des boucliers ou des gardiens pour bloquer leurs exécutions.
Enfin, les ordres humains donnés aux IA sont par nature souvent vagues et parfois contradictoires (quand ils ne sont pas carrément malveillants), un sujet déjà au cœur de toutes les recherches IA en matière de RLHF (Reinforcement Learning from Human Feedback) et RLAIF (Reinforcement Learning from AI Feedback).

Les besoins d’une cinquième Loi

Dans un excellent papier – qui a d’ailleurs inspiré celui que vous êtes en train de lire – publié dans la revue IEEE Spectrum, Dariusz Jemielniak, professeur à l’Université de Kozminski et membre du conseil d’administration du Campus AI de l’EIIT (European Institute for Innovation & Technology), explique que l’ère de collaboration homme-machine que nous vivons actuellement dépasse largement ce qu’Asimov pouvait envisager. Et pour lui, la réalité de l’IA telle qu’on la connaît aujourd’hui, nous impose déjà une quatrième Loi (en réalité une cinquième, l’auteur faisant l’impasse sur la Loi Zéro).

5- Quatrième Loi (de Dariusz Jemielniak, dans IEEE Spectrum April 2025 issue):

“Une IA ne doit pas tromper un être humain en se faisant passer pour un être humain.”

Pour Dariusz Jemielniak, l’établissement de limites claires est essentiel pour maintenir la confiance. Si la collaboration homme-IA peut être constructive, la tromperie par IA compromet cette confiance et entraîne une perte de temps, une détresse émotionnelle et un mauvais usage des ressources. En d’autres termes, cette « loi de non‑tromperie » transpose l’esprit d’Asimov à l’ère de la désinformation : le danger n’est plus seulement le dommage physique, mais aussi le dommage cognitif.

Pour implémenter cette quatrième Loi, cinq mesures techniques sont nécessaires et doivent rapidement trouver une concrétisation, selon Dariusz Jemielniak :
1 – Obligation de divulgation pour les interactions directes avec l’IA (ce que l’AI Act demande dans son article 52).
2 – Étiquetage clair du contenu généré par IA (notamment par du marquage obligatoire et automatique des contenus) techniquement assez complexe mais qui pose aussi le problème de comment indiquer que seulement une infime partie d’un contenu a été « aidé par l’IA » sur une production essentiellement humaine.
3 – Des standards techniques pour l’identification des IA (on en est encore très loin)
4 – Des cadres juridiques d’application (ce que l’AI Act essaye de formaliser)
5 – Des initiatives éducatives pour améliorer la compréhension du fonctionnement des IA, thème qui rejoint et comprend l’utilisation responsable et transparente des technologies IA.

Et l’auteur d’encourager la lecture des 266 pages du framework « Ethically Aligned Design » pour explorer ces sujets.

Dit autrement, la transposition des Lois de la Robotique d’Asimov est une idée qui mérite d’être creusée mais qui se heurte à la complexité éthique, à l’ambiguïté du langage et aux limites actuelles de la vérification formelle. L’intelligence artificielle s’est concrétisée sans le « cerveau positronique » gavé d’anti‑particules imaginé par Asimov. Née par le logiciel, elle doit aujourd’hui et plus que jamais s’attacher à gagner en transparence et à construire une confiance à partir d’un empilement de techniques de filtrage, de formation alignée, de proofs‑of‑safety et de cadres juridiques — un empilement encore imparfait, mais au final déjà très « asimovien » dans l’esprit. Malheureusement, à l’heure actuelle, la course technologique et commerciale aux IA conduit bien trop les acteurs de l’IA à travailler ces sujets a posteriori une fois leurs modèles déjà entraînés et publiés… Il est grand temps que tous se replongent dans les tenants et aboutissants des Lois d’Asimov pour des IA « safe by Design »…


À LIRE AUSSI :

À LIRE AUSSI :

Dans l'actualité

Verified by MonsterInsights