Des milliards de personnes voteront lors d’élections majeures cette année – environ la moitié de la population mondiale, selon certaines estimations – dans l’un des exercices démocratiques les plus importants et les plus conséquents de mémoire d’homme. Les résultats affecteront la manière dont le monde fonctionnera dans les décennies à venir.
Dans le même temps, les faux récits et les théories du complot sont devenus une menace de plus en plus mondiale.
Les allégations infondées de fraude électorale ont ébranlé la confiance dans la démocratie. Les campagnes d’influence étrangère ciblent régulièrement des défis nationaux polarisants. L’intelligence artificielle a intensifié les efforts de désinformation et déformé les perceptions de la réalité. Et ce, alors que les grandes sociétés de médias sociaux ont réduit leurs mesures de protection et réduit leurs équipes électorales.
« Presque toutes les démocraties sont soumises à des pressions, indépendamment de la technologie », a déclaré Darrell M. West, chercheur principal au groupe de réflexion Brookings Institution. « Lorsque vous ajoutez à cela de la désinformation, cela ne fait que créer de nombreuses opportunités de méfaits. »
Il s’agit, a-t-il dit, d’une « parfaite tempête de désinformation ».
Les enjeux sont énormes.
La démocratie, qui s’est répandue à l’échelle mondiale après la fin de la guerre froide, est confrontée à des défis croissants dans le monde entier – des migrations massives au dérèglement climatique, des inégalités économiques à la guerre. La lutte menée dans de nombreux pays pour répondre de manière adéquate à de telles épreuves a érodé la confiance dans les sociétés libérales et pluralistes, ouvrant la porte aux appels des populistes et des dirigeants forts.
Les pays autocratiques, menés par la Russie et la Chine, ont profité des courants de mécontentement politique pour promouvoir des discours qui sapent la gouvernance et le leadership démocratiques, souvent en parrainant des campagnes de désinformation. Si ces efforts aboutissent, les élections pourraient accélérer la récente montée en puissance de dirigeants à l’esprit autoritaire.
Fyodor A. Lukyanov, un analyste qui dirige à Moscou un groupe de réflexion aligné sur le Kremlin, le Conseil pour la politique étrangère et de défense, a récemment affirmé que 2024 « pourrait être l’année où les élites libérales occidentales perdront le contrôle de l’ordre mondial ».
L’establishment politique de nombreux pays, ainsi que les organisations intergouvernementales comme le Groupe des 20, semblent prêts à être bouleversés, a déclaré Katie Harbath, fondatrice de la société de politique technologique Anchor Change et ancienne directrice des politiques publiques chez Facebook, chargée de la gestion des élections. La désinformation – diffusée via les réseaux sociaux mais aussi par la presse écrite, la radio, la télévision et le bouche à oreille – risque de déstabiliser le processus politique.
« Nous allons atteindre 2025 et le monde sera très différent », a-t-elle déclaré.
Opérations étatiques agressives
Parmi les principales sources de désinformation dans les campagnes électorales figurent les gouvernements autocratiques qui cherchent à discréditer la démocratie en tant que modèle mondial de gouvernance.
La Russie, la Chine et l’Iran ont tous été cités ces derniers mois par des chercheurs et le gouvernement américain comme susceptibles de tenter des opérations d’influence visant à perturber les élections dans d’autres pays, y compris l’élection présidentielle américaine de cette année. Les pays voient l’année à venir comme « une réelle opportunité de nous embarrasser sur la scène mondiale, d’exploiter les divisions sociales et de saper le processus démocratique », a déclaré Brian Liston, analyste chez Recorded Future, une société de sécurité numérique qui a récemment signalé des menaces potentielles à la race américaine.
La société a également examiné un effort d’influence russe que Meta a identifié pour la première fois l’année dernière, surnommé « Doppelgänger », qui semblait usurper l’identité d’organisations de presse internationales et créer de faux comptes pour diffuser la propagande russe aux États-Unis et en Europe. Doppelgänger semble avoir utilisé des outils d’intelligence artificielle largement disponibles pour créer des médias dédiés à la politique américaine, avec des noms comme Election Watch et My Pride.
Les campagnes de désinformation comme celle-ci traversent facilement les frontières.
Les théories du complot – telles que les affirmations selon lesquelles les États-Unis comploteraient avec des collaborateurs dans divers pays pour organiser des changements de pouvoir locaux ou qu’ils exploiteraient des usines secrètes d’armes biologiques en Ukraine – ont cherché à discréditer l’influence politique et culturelle américaine et européenne dans le monde. Ils pourraient apparaître en ourdou au Pakistan tout en faisant également surface, avec des caractères et un langage différents, en Russie, faisant évoluer l’opinion publique de ces pays en faveur des politiciens anti-occidentaux.
Les faux récits qui circulent à travers le monde sont souvent partagés par les communautés de la diaspora ou orchestrés par des agents soutenus par l’État. Les experts prédisent que les récits de fraude électorale continueront d’évoluer et de se répercuter, comme ce fut le cas aux États-Unis et au Brésil en 2022, puis en Argentine en 2023.
Un cycle de polarisation et d’extrémisme
Un environnement politique de plus en plus polarisé et combatif engendre des discours de haine et de désinformation, qui poussent les électeurs encore plus dans les silos. Une minorité motivée de voix extrémistes, aidée par les algorithmes des réseaux sociaux qui renforcent les préjugés des utilisateurs, noie souvent une majorité modérée.
« Nous sommes en train de redéfinir nos normes sociétales en matière de discours et la manière dont nous tenons les gens responsables de ce discours, en ligne et hors ligne », a déclaré Mme Harbath. « Il existe de nombreux points de vue différents sur la manière d’y parvenir dans ce pays, et encore moins dans le monde entier. »
Certaines des voix les plus extrêmes se cherchent sur les réseaux sociaux alternatifs, comme Telegram, BitChute et la vérité sociale. Les appels à mettre un terme de manière préventive à la fraude électorale – qui est historiquement insignifiante sur le plan statistique – ont récemment fait leur apparition sur ces plateformes, selon Pyrra, une société qui surveille les menaces et la désinformation.
La « prévalence et l’acceptation de ces discours ne font que gagner du terrain », influençant même directement la politique et la législation électorales. Pyrra trouvée dans une étude de cas.
“Ces complots prennent racine au sein de l’élite politique, qui utilise ces récits pour gagner la faveur du public tout en dégradant la transparence, les freins et contrepoids du système même qu’ils sont censés défendre”, ont écrit les chercheurs de l’entreprise.
La proposition risque-récompense de l’IA
L’intelligence artificielle « est prometteuse pour la gouvernance démocratique », selon signaler du Université de Chicago et Université de Stanford. Les chatbots à vocation politique pourraient informer les électeurs sur les questions clés et mieux connecter les électeurs aux élus.
La technologie pourrait aussi être un vecteur de désinformation. De fausses images d’IA ont déjà été utilisées pour propager des théories du complot, comme l’affirmation sans fondement selon laquelle il existerait un complot mondial visant à remplacer les Européens blancs par des immigrants non blancs.
En octobre, Jocelyn Benson, secrétaire d’État du Michigan, a écrit au sénateur Chuck Schumer, démocrate de New York et chef de la majorité, affirmant que « le contenu généré par l’IA peut renforcer la crédibilité d’une désinformation hautement localisée ».
« Une poignée d’États – et des circonscriptions particulières au sein de ces États – sont susceptibles de décider de la présidence », a-t-elle déclaré. « Ceux qui cherchent à influencer les résultats ou à semer le chaos peuvent recourir à des outils d’IA pour induire les électeurs en erreur sur les temps d’attente, les fermetures ou même la violence dans des lieux de vote spécifiques. »
Lawrence Norden, qui dirige le programme électoral et gouvernemental au Brennan Center for Justice, un institut de politique publique, a ajouté que l’IA pourrait imiter de grandes quantités de documents provenant des bureaux électoraux et les diffuser largement. Ou bien, elle pourrait fabriquer des produits à un stade avancé Les surprises d’octobre, comme le l’audio avec les signes d’intervention de l’IA qui ont été révélés lors des élections serrées en Slovaquie cet automne.
“Toutes les menaces qui pèsent sur notre démocratie depuis un certain temps sont potentiellement aggravées par l’IA”, a déclaré M. Norden lors de sa participation à un panel en ligne en novembre. (Pendant l’événement, les organisateurs ont présenté un version artificiellement manipulée de M. Norden pour mettre en valeur les capacités de la technologie.)
Certains experts craignent que la simple présence d’outils d’IA puisse affaiblir la confiance dans l’information et permettre aux acteurs politiques d’ignorer le contenu réel. D’autres ont déclaré que les craintes, pour l’instant, sont exagérées. L’intelligence artificielle n’est « qu’une menace parmi tant d’autres », a déclaré James M. Lindsay, vice-président senior du groupe de réflexion Council on Foreign Relations.
« Je ne perdrais pas de vue toutes les méthodes démodées de semer la désinformation ou la désinformation », a-t-il déclaré.
Les grandes technologies réduisent leurs protections
Dans les pays où des élections générales sont prévues en 2024, la désinformation est devenue une préoccupation majeure pour une grande majorité des personnes interrogées par UNESCO, l’organisation culturelle des Nations Unies. Et pourtant, les efforts déployés par les sociétés de médias sociaux pour limiter les contenus toxiques, qui se sont intensifiés après l’élection présidentielle américaine de 2016, ont récemment diminué, voire complètement inversés.
Meta, YouTube et X, la plateforme anciennement connue sous le nom de Twitter, ont réduit ou remodelé les équipes chargées de contrôler les contenus dangereux ou inexacts l’année dernière, selon un rapport récent par Free Press, une organisation de défense. Certains proposent de nouvelles fonctionnalités, comme les diffusions privées unidirectionnelles, particulièrement difficiles à surveiller.
Les entreprises commencent l’année avec « peu de bande passante, très peu de responsabilité par écrit et des milliards de personnes dans le monde se tournant vers ces plateformes pour obtenir des informations » – ce qui n’est pas idéal pour sauvegarder la démocratie, a déclaré Nora Benavidez, avocate principale chez Free Press.
Les nouvelles plateformes, comme TikTok, commenceront très probablement à jouer un rôle plus important dans le contenu politique. Substack, la start-up de newsletter qui a déclaré le mois dernier qu’elle n’interdirait pas les symboles nazis et la rhétorique extrémiste de sa plateforme, souhaite que la saison électorale 2024 soit « »l’élection de la sous-pile.» Les politiques planifient événements diffusés en direct sur Twitch, qui organise également un débat entre les versions générées par l’IA du président Biden et l’ancien président Donald J. Trump.
Meta, propriétaire de Facebook, Instagram et WhatsApp, a déclaré dans un article de blog en novembre, qu’il était « dans une position de force pour protéger l’intégrité des élections de l’année prochaine sur nos programmes ». (Le mois dernier, un conseil de surveillance nommé par l’entreprise a contesté les outils automatisés de Meta et sa gestion des deux vidéos liés au conflit Israël-Hamas.)
Youtube a écrit le mois dernier, ses « équipes axées sur les élections ont travaillé sans relâche pour s’assurer que nous disposions des politiques et des systèmes adéquats ». La plateforme a déclaré cet été qu’elle arrêtez de supprimer les faux récits de fraude électorale. (YouTube a déclaré vouloir que les électeurs entendent tous les points de vue dans un débat, tout en soulignant que « il ne s’agit pas d’un laissez-passer gratuit pour diffuser des informations erronées ou promouvoir une rhétorique haineuse. »)
De tels contenus ont proliféré sur X après que le milliardaire Elon Musk a pris le relais fin 2022. Quelques mois plus tard, Alexandra Popken a quitté son rôle de gestion des opérations de confiance et de sécurité pour la plateforme. De nombreuses sociétés de médias sociaux s’appuient fortement sur des outils peu fiables de modération de contenu basés sur l’IA, laissant des équipes humaines réduites en mode lutte constante contre les incendies, a déclaré Mme Popken, qui a ensuite rejoint la société de modération de contenu WebPurify.
« L’intégrité électorale est un effort tellement colossal qu’il faut vraiment une stratégie proactive, beaucoup de personnes, de cerveaux et de salles de crise », a-t-elle déclaré.