IA : pourquoi il est urgent d’interdire les "deepfakes"

il y a 1 day 3

Il y a quelques semaines, une trentaine de vidéos dans lesquelles le célèbre chercheur en nutrition Serge Hercberg - créateur du Nutriscore - donnait des conseils nutritionnels fantaisistes ont été diffusées sur Internet. Il s’agissait de "deepfakes" ou hypertrucages, des faux générés par des outils d’intelligence artificielle (IA) permettant de faire dire n’importe quoi à n’importe qui, quasiment impossibles à distinguer de vraies vidéos du chercheur. La communauté scientifique et médicale s’est émue de la facilité avec laquelle ces outils pouvaient faciliter la diffusion de fausses informations en santé, en piratant l’image et l’autorité de chercheurs reconnus.

Mais la désinformation en santé n’est pas le problème le plus grave posé par ces hypertrucages. Depuis que les sociétés humaines existent, elles s’appuient sur l’idée que chacun peut être tenu responsable de ce qu’il dit et de ce qu’il fait. Elles nécessitent pour cela une communication fiable et authentique, ce qui est transparent lorsque les personnes sont réunies physiquement, mais pose problème lorsqu’elles sont éloignées. L’écriture a permis la communication à distance, et les signatures et sceaux apposés en bas des lettres ont longtemps garanti leur authenticité. Depuis le XIXe siècle, les enregistrements photographiques, puis sonores et audiovisuels sont venus compléter les déclarations des témoins directs pour établir de manière indiscutable les faits et les actes. Les télécommunications, en transportant la voix puis l’image, ont de plus grandement amélioré la fiabilité et l’authenticité de la communication à distance.

Des deepfake bientôt impossible à distinguer

De nos jours, les enregistrements audios et vidéos jouent un rôle crucial dans le domaine judiciaire (établir la preuve d’un crime ou délit), informationnel (communiquer des faits aux citoyens), ou encore politique (établir les propositions, positions et actions des personnalités politiques sur tous les sujets de leur ressort). La production en chaîne de fausses informations et de faux discours politiques rendus plus vrais que nature par la génération de fausses vidéos de personnes menace de saboter le travail de la justice, des médias et de toutes nos institutions démocratiques. Les IA génératives d’hypertrucages menacent également la confiance que nous pouvons avoir dans toute télécommunication. Très bientôt, lorsque vous ferez un appel (audio ou vidéo) avec un collègue, un ami ou un parent, vous ne pourrez plus être sûr de communiquer avec la vraie personne plutôt que de vous faire manipuler par une IA.

Il y a trois ans déjà, l’historien Yuval Noah Harari et le philosophe Daniel Dennett tiraient la sonnette d’alarme. Ils faisaient notamment un parallèle intéressant avec la monnaie : depuis qu’elle existe, elle suppose d’avoir confiance dans le fait que nous pourrons l’échanger contre des biens d’une certaine valeur. La fausse monnaie rompt le lien de confiance essentiel à toute économie. Raison pour laquelle sa fabrication et son usage ont été, dès l’origine, des crimes sévèrement punis. Dennett argue que les IA générant des hypertrucages créent des contrefaçons audiovisuelles de personnes et de faits. Il faut en faire un crime puni aussi sévèrement que la contrefaçon de monnaie.

Comme la fausse monnaie, il faut réguler les deepfakes

Il est bien sûr impossible de rembobiner le progrès technologique : ces outils existent et ne disparaîtront pas, ils continueront au contraire à s’améliorer. On peut par ailleurs considérer que certains usages sont légitimes, comme la fiction ou la parodie. L’important est qu’il n’y ait aucune ambiguïté sur le statut réel ou truqué de ce qui est diffusé. C’est déjà ce que la loi impose aux personnes qui diffusent des hypertrucages.

Mais pénaliser les usagers ne suffit pas. Ce sont les outils et les contrefaçons qu’ils produisent qu’il faut réguler. Comme pour la monnaie, la solution réside en partie dans l’ajout de différents types de filigranes, à la fois visibles à l’œil nu pour les utilisateurs humains, et de nature plus technique pour les analyses automatisées. Toute entreprise produisant ou mettant à disposition des outils générateurs d’hypertrucages devrait avoir l’obligation de programmer une insertion automatique de filigranes numériques respectant certains standards dans toutes les productions de ces outils, sous peine de sanctions sévères. De même, toute manipulation visant à rendre les trucages indétectables devrait être pénalisée. Ce n’est qu’à ce prix que nous pourrons sauvegarder un minimum de confiance dans l’information, l’audiovisuel et les télécommunications.

A un an de l’élection présidentielle en France, c’est un problème grave et urgent devant lequel on ne peut pas rester les bras ballants. Nos députés, habituellement très prompts à édicter des interdictions, parfois abusives, souvent inapplicables (comme l’interdiction des réseaux sociaux aux moins de 15 ans), seraient bien inspirés de se mobiliser en faveur d’une interdiction stricte de la contrefaçon audiovisuelle des faits et des personnes.

Lire l’article en entier