À l’approche d’une nouvelle élection américaine à fort enjeu, les géants de la tech Google et Meta prennent des mesures pour contrôler la propagation de la désinformation en interdisant temporairement les publicités politiques sur leurs plateformes. Cette décision est perçue comme une réponse à la désinformation qui a fréquemment entaché les cycles électoraux, mais certains experts en remettent en question l’efficacité, estimant qu’il pourrait être trop tard pour avoir un impact significatif.

Meta a récemment lancé son interdiction de publicité sur les sujets sociaux, les élections et la politique aux États-Unis, couvrant à la fois Facebook et Instagram. Initialement prévue pour se terminer mardi, l’entreprise a prolongé cette restriction jusqu’à la fin de la semaine, dans l’objectif de limiter la propagation de la désinformation pendant le dépouillement des votes. Google emboîtera bientôt le pas, en suspendant les publicités liées aux élections dès la fermeture du dernier bureau de vote le jour du scrutin. Cette suspension restera en vigueur pour une durée indéterminée, avec des objectifs similaires de réduction de la diffusion d’informations fausses.

L’idée derrière ces restrictions est d’empêcher les candidats et leurs partisans de manipuler l’opinion publique ou de déclarer faussement leur victoire avant la confirmation officielle des résultats. Avec un dépouillement qui pourrait s’étendre, ces mesures visent à éviter toute déclaration prématurée de succès pouvant provoquer des troubles. Cependant, malgré les initiatives de Google et Meta, certains experts estiment que les actions actuelles pourraient être insuffisantes, en raison des précédentes décisions des entreprises de réseaux sociaux de réduire leurs équipes de confiance et de sécurité.

Alors que Meta et Google mettent en place ces interdictions temporaires, X (anciennement Twitter) a adopté une approche différente. Après l’acquisition de la plateforme par Elon Musk, X a levé son interdiction des publicités politiques l’année dernière et n’a pas annoncé de restrictions pour la période électorale. Les politiques plus souples de X soulèvent des inquiétudes quant à la propagation d’informations non vérifiées. X, autrefois reconnu comme un leader dans la lutte contre la désinformation électorale, avait été salué pour son rôle dans la prévention de la diffusion de fausses informations à caractère politique. Sa position antérieure a même poussé d’autres grandes plateformes à suivre son exemple. Cependant, sous la direction de Musk, X a été lié à une augmentation de la diffusion de déclarations trompeuses sur les élections et l’immigration, les publications de Musk lui-même contribuant à cette propagation.

L’impact des réseaux sociaux sur les élections est scruté depuis des années, notamment après l’ingérence lors de l’élection présidentielle américaine de 2016 et l’attaque du Capitole du 6 janvier 2021. Suite à ces événements, les grandes plateformes ont investi dans l’intégrité électorale et des équipes de modération, suspendant des comptes et supprimant les publications diffusant de la désinformation. Cependant, ces dernières années, elles ont réduit leurs équipes de confiance et de sécurité, assouplissant les restrictions précédentes sur la désinformation autour de la politique et des élections. Par exemple, en 2022, Meta et d’autres entreprises ont déclaré qu’elles ne supprimeraient plus les affirmations fausses selon lesquelles l’élection de 2020 avait été volée.

La réduction des ressources et de l’application des règles a conduit à ce que certains observateurs appellent un « recul », la désinformation se propageant sans contrôle sur les réseaux sociaux. Au cours de l’été, alors que les théories du complot se multipliaient, les utilisateurs ont constaté une baisse notable de la modération. Des théories sur la sécurité de Trump aux affirmations exagérées concernant les réponses aux ouragans, la désinformation a progressivement érodé la confiance. Les experts craignent maintenant que, même avec la suspension temporaire des publicités politiques, la posture plus relâchée des plateformes sur la vérification des faits permette à la désinformation de continuer à circuler.

Le défi posé par l’intelligence artificielle ajoute également une couche de complexité. Les experts s’inquiètent du fait que l’IA pourrait amplifier le problème en facilitant la création de contenus trompeurs, y compris des images, vidéos et audios faux, donnant une apparence de légitimité à des affirmations erronées. À mesure que les outils d’IA deviennent plus accessibles, le potentiel de la désinformation à influencer l’opinion publique augmente, créant un nouveau risque pour le cycle électoral.

En plus de suspendre les publicités politiques, de nombreuses plateformes affirment prendre d’autres mesures pour soutenir l’intégrité des élections. Par exemple, Meta, Google, YouTube, X et TikTok mettent en avant leurs efforts pour promouvoir des informations vérifiées sur le vote et les candidats. Ces initiatives incluent des partenariats avec des autorités électorales et des ONG, orientant les utilisateurs vers des sources fiables. Cependant, l’impact de ces mesures peut rester limité. Par exemple, la Civic Integrity Policy de X, qui restreint le contenu destiné à interférer avec les élections ou à inciter à la violence, autorise des publications pouvant être polarisantes ou biaisées, même si elles sont factuellement incorrectes. Cette politique permet une large gamme de contenus pouvant générer une méfiance du public envers le processus électoral.

Si les interdictions publicitaires constituent un pas vers une meilleure sécurité électorale, les experts soulignent que les plateformes sont conçues pour promouvoir le contenu le plus engageant, indépendamment de sa véracité. Comme les publications controversées attirent davantage d’engagement, les contenus organiques contenant de la désinformation peuvent toujours toucher un large public, limitant ainsi l’efficacité des interdictions. TikTok, quant à lui, affirme soutenir l’intégrité électorale via son « US Elections Integrity Hub », en étiquetant les contenus non vérifiés pour limiter leur diffusion et en collaborant avec des vérificateurs de faits. YouTube et Meta ont également promis de réduire la visibilité des publications identifiées comme fausses par les vérificateurs de faits.

Malgré les promesses des plateformes de protéger l’information électorale, la question demeure de savoir si ces mesures temporaires peuvent inverser l’effet « goutte à goutte » de la désinformation sur la confiance du public. Alors que les plateformes continuent d’héberger des discussions polarisantes et de laisser place à des opinions controversées, l’efficacité des pauses publicitaires pour limiter réellement la propagation de fausses informations semble incertaine.