Les algorithmes peuvent être utiles pour détecter les fausses nouvelles, arrêter leur diffusion et lutter contre la désinformation
Professeur d'informatique, Université de la Colombie-Britannique
Laks VS Lakshmanan reçoit un financement du Conseil de recherches en sciences naturelles et en génie du Canada.
L'Université de la Colombie-Britannique fournit des fonds en tant que partenaire fondateur de The Conversation CA.
L'Université de la Colombie-Britannique fournit des fonds en tant que membre de The Conversation CA-FR.
Voir tous les partenaires
Les fausses nouvelles sont un problème complexe et peuvent englober du texte, des images et des vidéos.
Pour les articles écrits en particulier, il existe plusieurs façons de générer de fausses nouvelles. Un faux article d'actualité pourrait être produit en éditant de manière sélective des faits, y compris des noms de personnes, des dates ou des statistiques. Un article pourrait également être complètement fabriqué avec des événements ou des personnes inventés.
Les faux articles d'actualité peuvent également être générés par des machines, car les progrès de l'intelligence artificielle facilitent particulièrement la génération de fausses informations.
Des questions comme : "Y a-t-il eu une fraude électorale lors des élections américaines de 2020 ?" ou "Le changement climatique est-il un canular ?" peut être vérifiée en analysant les données disponibles. Ces questions peuvent être répondues par vrai ou faux, mais il existe un potentiel de désinformation autour de questions comme celles-ci.
La mésinformation et la désinformation - ou fausses nouvelles - peuvent avoir des effets néfastes sur un grand nombre de personnes en peu de temps. Bien que la notion de fake news ait existé bien avant les avancées technologiques, les réseaux sociaux ont exacerbé le problème.
Une étude Twitter de 2018 a montré que les fausses nouvelles étaient plus souvent retweetées par les humains que les bots, et 70 % plus susceptibles d'être retweetées que les histoires vraies. La même étude a révélé qu'il fallait environ six fois plus de temps pour que les histoires vraies atteignent un groupe de 1 500 personnes et, alors que les histoires vraies atteignaient rarement plus de 1 000 personnes, les fausses nouvelles populaires pouvaient se propager jusqu'à 100 000 personnes.
L'élection présidentielle américaine de 2020, les vaccins COVID-19 et le changement climatique ont tous fait l'objet de campagnes de désinformation aux conséquences graves. On estime que la désinformation entourant le COVID-19 coûte entre 50 et 300 millions de dollars américains par jour. Le coût de la désinformation politique pourrait être le désordre civil, la violence ou même l'érosion de la confiance du public dans les institutions démocratiques.
La détection de la désinformation peut être effectuée par une combinaison d'algorithmes, de modèles d'apprentissage automatique et d'humains. Une question importante est de savoir qui est chargé de contrôler, voire d'arrêter, la propagation de la désinformation une fois qu'elle est détectée. Seules les entreprises de médias sociaux sont réellement en mesure d'exercer un contrôle sur la diffusion de l'information à travers leurs réseaux.
Un moyen particulièrement simple mais efficace de générer de la désinformation consiste à éditer sélectivement des articles de presse. Par exemple, considérez "le réalisateur et dramaturge ukrainien arrêté et accusé de 'justification du terrorisme'". Cela a été réalisé en remplaçant "russe" par "ukrainien" dans la phrase originale d'un article de presse réel.
Une approche à multiples facettes est nécessaire pour détecter la désinformation en ligne afin de contrôler sa croissance et sa propagation.
Les communications dans les médias sociaux peuvent être modélisées sous forme de réseaux, les utilisateurs formant des points dans le modèle de réseau et les communications formant des liens entre eux ; un retweet ou similaire d'un message reflète une connexion entre deux points. Dans ce modèle de réseau, les diffuseurs de désinformation ont tendance à former des structures centre-périphérie beaucoup plus densément connectées que les utilisateurs diffusant la vérité.
Mon groupe de recherche a développé des algorithmes efficaces pour détecter les structures denses des réseaux de communication. Ces informations peuvent être analysées plus avant pour détecter les cas de campagnes de désinformation.
Étant donné que ces algorithmes reposent uniquement sur la structure de communication, une analyse de contenu menée par des algorithmes et des humains est nécessaire pour confirmer les cas de désinformation.
La détection d'articles manipulés nécessite une analyse minutieuse. Notre recherche a utilisé une approche basée sur un réseau de neurones qui combine des informations textuelles avec une base de connaissances externe pour détecter une telle falsification.
Détecter la désinformation n'est que la moitié de la bataille - une action décisive est nécessaire pour arrêter sa propagation. Les stratégies de lutte contre la propagation de la désinformation sur les réseaux sociaux comprennent à la fois l'intervention des plateformes Internet et le lancement de contre-campagnes pour neutraliser les campagnes de fausses informations.
L'intervention peut prendre des formes dures, comme la suspension du compte d'un utilisateur, ou des mesures plus douces comme marquer une publication comme suspecte.
Les algorithmes et les réseaux alimentés par l'IA ne sont pas fiables à 100 %. Il y a un coût à intervenir sur un vrai article par erreur ainsi qu'à ne pas intervenir sur un faux article.
À cette fin, nous avons conçu une politique d'intervention intelligente qui décide automatiquement d'intervenir sur un élément en fonction de sa véracité et de sa popularité prévues.
Le lancement de contre-campagnes pour minimiser, voire neutraliser les effets des campagnes de désinformation doit tenir compte des différences majeures entre la vérité et les fausses nouvelles en termes de rapidité et d'ampleur de la propagation de chacune d'elles.
Lire la suite : À mesure que les provinces s'ouvrent, la confiance s'érode lorsque ce que nous vivons diffère de ce que nous disent les institutions
Outre ces différences, les réactions aux histoires peuvent varier en fonction de l'utilisateur, du sujet et de la longueur du message. Notre approche tient compte de tous ces facteurs et conçoit une stratégie de contre-campagne efficace qui atténue efficacement la propagation de la désinformation.
Les avancées récentes de l'IA générative, en particulier celles alimentées par de grands modèles de langage tels que ChatGPT, facilitent plus que jamais la création d'articles à grande vitesse et en volume important, ce qui relève le défi de détecter la désinformation et de contrer sa propagation à grande échelle et en temps réel. Nos recherches actuelles continuent de relever ce défi permanent qui a un impact sociétal énorme.
Les algorithmes peuvent être utiles pour détecter les fausses nouvelles, arrêter leur propagation et contrer la désinformation