Les fake news sont partout depuis 2016. Huit ans après, une menace plus grande est là, estiment des chercheurs : une combinaison de désinformation et de deepfakes qui tromperait même les experts. Une multitude d’images et de vidéos circulant à l’approche des élections partout dans le monde menacent notre libre arbitre. Pourquoi et que faire?
Jamais l’enjeu d’une IA éthique, de confiance et open source n’a été aussi criant. La menace de la désinformation est là et le constat est glaçant, alors que près d’un quart de la population mondiale rendra aux urnes en 2024. La désinformation et des supercheries basées IA pourraient être utilisées par des acteurs néfastes pour influencer les résultats, car beaucoup d’experts craignent la généralisation des deepfakes.
Des élections majeures sont prévues aux États-Unis, au Royaume-Uni, en Inde ainsi que pour le Parlement européen. Cela pourrait changer le paysage politique et l’orientation de la géopolitique pour les prochaines années et même au-delà. Dans le même temps, le Forum Économique Mondial (FEM) a récemment classé la désinformation comme le risque mondial numéro un pour les deux années à venir.
Le défi avec les deepfakes, c’est la technologie basée IA devenue bon marché, accessible et puissante pouvant causer des dommages à grande échelle, estiment des chercheurs de l’entreprise Eset.
C’est pour cela que le FEM a récemment classé la désinformation comme le plus grand risque mondial des deux années à venir, et le deuxième risque actuel, après les conditions météorologiques extrêmes. C’est ce que révèlent 1 490 experts du monde universitaire et des affaires, des gouvernements, de la communauté internationale et de la société civile consultés par le FEM.
Dans un contexte électoral, les deepfakes peuvent être utilisés pour réduire la confiance des électeurs dans un candidat particulier. Il est plus facile de convaincre quelqu’un de ne pas faire quelque chose que l’inverse.
Le rapport explique : «Les contenus synthétiques manipuleront les individus, porteront préjudice aux économies et fractureront les sociétés de diverses manières au cours des deux prochaines années… il y a un risque que certains gouvernements soient trop lents confrontés à la prévention de la désinformation et à la protection de la liberté d’expression.»
En janvier 2024, un faux audio de Joe Biden a été diffusé via un appel automatisé à un nombre inconnu d’électeurs des primaires du New Hampshire. Dans le message, il leur aurait dit de ne pas participer et de « garder leur vote pour les élections de novembre ». Le numéro de l’appelant était falsifié pour faire croire que le message avait été envoyé à partir du numéro personnel de Kathy Sullivan, ancienne présidente du Parti démocrate de l’État qui dirige actuellement un super-PAC pro-Biden. La propagation s’est faite via des appels automatisés plutôt que les réseaux sociaux, c’est encore plus difficile d’en suivre ou d’en mesurer l’impact.
À l’ère des médias sociaux et de la désinformation alimentée par l’IA, la phrase de Jonathan Swift « le mensonge vole, et la vérité suit en boitant » prend un tout nouveau sens. Ce constat est partagé par de nombreux acteurs européens, dont la communauté OpenLLM France. Nous avons besoin d’une IA open source, ouverte et éthique.
Le sujet vous intéresse ? Lisez (en anglais) « Deepfakes in the global election year of 2024: A weapon of mass deception? » sur le blog WeLiveSecurity d’Eset.
