Parole de DSI - Un monde de Deepfakes : faux et usage de faux

Gouvernance

Faux et usage de faux

Par Laurent Delattre, publié le 16 septembre 2024

Les technologies nous facilitent énormément le quotidien, et ce depuis des dizaines d’années. L’informatique au sens large a amené la capacité de traitement de l’information en vitesse comme en quantité, Internet a apporté la circulation qui y manquait. Depuis près de 20 ans, ce duo en synergie nous a offert une vraie révolution de l’économie et de nos sociétés civiles, avec son bon côté, et le mauvais.


Parole de DSI / Par Thomas Chejfec, Directeur des systèmes d’information 


Avec cette révolution est survenu le risque sécuritaire. Pas une semaine, pas un mois sans attaque contre des organisations publiques ou privées. Un nouvel écosystème a vu le jour : celui de la sécurité informatique. Il ne crée pas de valeur hormis celle de nous assurer une protection pour continuer de travailler ou d’échanger en toute sécurité. En face, l’économie des attaques informatiques est désormais industrialisée et il est aisé de se procurer sur le darkweb tous les éléments nécessaires pour monter une opération.

Parallèlement, l’IA a fait irruption dans nos vies. Très rapidement, comme la foudre, sans que le grand public s’y attende. Après avoir joué avec ChatGPT pendant quelques mois, les concurrents sont entrés en lice et le développement des cas d’usage s’est fortement accéléré. Aujourd’hui l’IA est API-sée, vendue à toutes les sauces par les éditeurs de logiciels, même si parfois il n’y en a pas… Mais que voulez- vous, ça fait très certainement rêver les clients et les investisseurs.

La vérité par l’écrit, c’est du passé

Quand on couple ces deux notions, d’IA et d’insécurité, on en arrive à mixer deux outils qui remettent aujourd’hui en question nos pratiques les plus ancrées. En effet, avant l’informatique, comment nous (r)assurions-nous ? Nos ancêtres garantissaient la véracité des documents par de nombreux moyens, mais toujours basés sur un écrit. Quand deux personnes étaient à distance, la vérité était couchée sur papier. Nous avions des tampons, des sceaux, des entités légales certifiantes. Nous avons été habitués culturellement, avant l’ère de l’informatique, à croire en la véracité de l’information écrite.

Désormais, les faussaires utilisent l’IA pour mener des attaques. Je suis récemment tombé sur la vidéo qui a fait le buzz quelques jours, où Donald Trump et Kamala Harris s’enlacent et s’accouplent pour donner naissance à un petit Kamalo Trump. Évidemment, personne n’y croit. C’est trop grossier, trop improbable. Mais ce n’est qu’une bêta. Pas dans le sens où cela est mal fait, mais dans celui où la supercherie n’aura échappé à personne.

Contrairement à nos écrits légitimes des années désormais bien passées, où nos sens étaient rassurés par ce que nous pouvions toucher ou ce que nous voyions de façon figée et en mode « texte », cette technologie crée un contexte beaucoup plus pernicieux. Déjà les hackers savent jouer sur des cordes bien plus sensibles et aller au-delà du faux en écriture. Ils ont appris à user de la psychologie, à maîtriser l’art de ne pas en faire trop pour rester crédibles. On joue à la fois sur le visuel, sur le temporel, sur l’émotionnel et sur des images ou des vidéos. On pourrait se rassurer en se disant que si une photo retouchée des années 1980 faisait illusion, en 2010 plus personne ne se laissait abuser parce que nous avions appris à déceler les manipulations. Mais nous sommes en 2024 et désormais une vidéo, avec le son de votre voix, votre image, vos mimiques, sait brouiller tous les sens qui permettent à votre interlocuteur de juger si une information est crédible ou pas. Si le scénario est bien ficelé, la falsification est élevée au rang d’art.

Dans quelques semaines, mois ou années, nous devrons faire face à une industrialisation de ces pratiques par les organisations criminelles. L’enjeu sera alors simple : nous allons devoir une fois de plus adapter nos systèmes de défense. Ne plus considérer comme vraie toute interaction numérique, aussi bien faite soit-elle. Cela va engendrer de nouveaux mécanismes que nous allons devoir ancrer dans nos pratiques. La question de la certification de ce que nous verrons est très vaste. Comment être sûr qu’en visio avec mon patron, c’est bien la personne légitime en face de moi ? Qu’est-ce qui me prouve à l’instant où je vis cette situation, que je ne suis pas victime d’une manipulation ?

En préparant cet article, je me posais la question du mot de passe interactif. Allons-nous devoir déraper dans nos relations humaines en protégeant (aussi) nos interactions par mot de passe ? Cela me fait peur d’en arriver là, mais c’est pourtant un avenir probable.

L’article aurait pu s’arrêter là, dans la mesure où l’on pourrait se dire que nous avons touché à la quintessence de ce qu’il est possible de faire aussi bien en termes de menaces que pour y répondre. Certes, probablement. En attendant nos clones physiques que je ne connaîtrai pas de mon vivant, mais qui finiront très probablement par arriver dans une centaine d’années. Que voulez-vous, le mariage des technologies engendrera toujours des choses que nous pensions inimaginables quelques décennies en arrière. C’est aussi la beauté de la technologie et de l’inventivité de l’Homme…

Dans l'actualité

Verified by MonsterInsights