Chasseurs de fausses nouvelles contre l’analphabétisme numérique |

54% des Espagnols pensent qu’ils ne peuvent pas raconter de faux rapports, ou fausses nouvelles, selon les données du Trust Project, un rapport publié par plusieurs médias nationaux. Dès 2018, le cabinet de conseil Gartner prévoyait que d’ici 2022 la plupart des pays occidentaux consommeraient plus de désinformation que de vraies nouvelles.

De plus, la pandémie de SRAS-Cov-2 n’a fait qu’aggraver la situation puisque, selon la Société espagnole des médecins généralistes et de famille, 90% des spécialistes ont traité des patients inquiets des données dont ils ont extrait fausses nouvelles sur internet ou les réseaux sociaux. Chaque jour, les citoyens ont été bombardés de fausses informations leur faisant croire que les mesures de santé publique étaient inutiles ou remettant en question l’efficacité, la nature et le but du vaccin. Le phénomène de la désinformation sur la santé était tel que l’Organisation mondiale de la santé l’a décrit infodémie.

La pandémie a été un terrain fertile pour une recrudescence des canulars issus de ce que les scientifiques dénoncent depuis des années : la fausse science. « De fausses nouvelles déguisées en science ont été utilisées pour essayer de saboter l’agenda social et amener les citoyens à douter d’informations compliquées et changeantes », dit-il. Sara Degli EspostiChercheur associé à l’Institut de Philosophie (IFS) du CSIC et coordinateur scientifique de Tresca, un projet européen du programme Horizon 2020 qui utilisera déjà la science des données pour améliorer la communication scientifique chasse fausses nouvelles. « Ceux qui promeuvent la désinformation s’appuient souvent sur des arguments d’autorité trompeurs, fabriquent des études qui ne sont pas avalisées par la communauté scientifique, ou se font passer pour des scientifiques ou des leaders d’opinion et tiennent le discours qui leur convient », prévient le chercheur, qui indique qu’il y a eu tel diffuse des informations scientifiques manipulées, principalement via les réseaux sociaux.

David Arroyo et Sara Degli-Esposti, chercheurs du CSIC. / Alvaro Muñoz Guzman

L’équipe Degli-Esposti a demandé à plus de sept mille personnes de tous âges dans sept pays de l’Union européenne (France, Allemagne, Italie, Espagne, Pologne, Hongrie et Pays-Bas) si elles estimaient que les réseaux sociaux étaient dangereux ou nuisibles pour eux. Le résultat a été écrasant : la majorité des gens pensent que les réseaux sociaux ne sont pas un endroit sûr.

Cette méfiance est le résultat d’une perte de contrôle sur les informations partagées en leur sein. « En définitive, les réseaux peuvent changer notre façon de percevoir le monde, explique-t-il. Les canulars des réseaux peuvent viser à confirmer une certaine perception du monde, c’est ce qu’on appelle le biais d’auto-confirmation ». Surtout dans un environnement de polarisation politique, comme cela a été observé dans de nombreux pays occidentaux ces dernières années, les canulars scientifiques deviennent des problèmes idéologiques. Et le meilleur outil pour y mettre un terme, selon les chercheurs, est de sensibiliser les citoyens, utilisateurs des nouvelles technologies.

Ces dernières années, des équipes de journalistes se sont spécialisées dans la démystification de la désinformation scientifique. Ce sont les soi-disant vérificateur de faits, ou des examinateurs, comme le projet Maldita Ciencia. « Les journalistes qui confirment l’information sont très bons, mais ils ont une capacité limitée à reproduire fausses nouvelles C’est énorme », dit-il. David BachExpert en cryptographie du CSIC et spécialisé en cybersécurité.

« Les campagnes de désinformation sont très rapides et ne laissent pas le temps de réagir », ajoute-t-il. Pour éviter ce problème, Tresca travaille sur le développement d’un outil numérique appelé Misinformation Widget pour aider les journalistes et les critiques de nouvelles à traquer plus efficacement les canulars. De plus, ils veulent apprendre aux utilisateurs à les reconnaître. « Nous voulons contribuer à la littératie numérique », déclare Arroyo.

Algorithmes contre la désinformation

Degli-Esposti met en évidence la différence entre les termes Pas correcte Oui désinformation, une distinction qui n’existe pas en espagnol. « La désinformation est intentionnelle, ce sont des campagnes lancées par des secteurs politiques, sociaux ou économiques spécifiques pour poursuivre un but précis », explique le chercheur.

Cependant, l’efficacité de ces campagnes dépend de la présence de nouvelles non fondées ou de nouvelles trompeuses avec un véritable fond dans l’opinion publique. Ce serait le ma-Informations. « Ce désinformation elle n’a pas de composante d’intentionnalité mais est liée à la confusion des utilisateurs, en bref à l’analphabétisme numérique. Cela crée des vulnérabilités dans l’opinion publique qui peuvent être exploitées par des agents mal intentionnés », explique Degli-Esposti.

Arroyo prend sa mère comme exemple. « C’est une utilisatrice lambda, si elle croit aux fake news, cela signifie que beaucoup d’autres personnes y croient », explique la chercheuse, qui explique que la désinformation volontaire se nourrit d’une ignorance généralisée. « Il suffit qu’une personne bien intentionnée crée de fausses informations et les partage innocemment avec ses proches Pas correcteL’information se transforme en désinformation », déclare Arroyo.

De cette façon, les chercheurs espèrent utiliser des outils comme le Misinformation Widget pour faciliter le travail des journalistes en traitant des ensembles de données et en utilisant l’apprentissage automatique pour découvrir plus rapidement une campagne de désinformation. Cependant, ce qu’il faut, c’est que les utilisateurs acquièrent les compétences nécessaires pour reconnaître fausses nouvelles.

Les recherches de Tresca montrent qu’avec une bonne éducation, les utilisateurs seront mieux à même d’utiliser les technologies numériques. « La culture numérique est essentielle pour arrêter les campagnes de désinformation », déclarent les deux chercheurs. Mais comment les modèles d’apprentissage automatique peuvent-ils aider à lutter contre cette pandémie de l’information ?

La première chose, dit Arroyo, est d’intégrer les différentes sources d’information. « Nous les mettons dans le système, les traitons et extrayons les informations qui sont ensuite utilisées pour créer des étiquettes », explique-t-il. « Nous regardons les sujets, les auteurs, les protagonistes de l’actualité, la manière d’écrire, très important pour reconnaître que clickbait, et la manière dont ces informations sont partagées sur les réseaux sociaux ». Ils se concentrent principalement sur Twitter en raison de son accessibilité. Arroyo et son équipe surveillent quels profils sont les plus impliqués dans les campagnes publicitaires fausses nouvelles et la relation entre divers récits diffusant de faux rapports sur un parti pris idéologique particulier.

Une partie du processus d’analyse des textes d’information est manuelle car elle nécessite des connaissances spécialisées. C’est là qu’intervient la partie humaniste de l’équipe qui travaille main dans la main avec la partie technique. « Les programmeurs en savent rarement assez sur l’histoire, la géopolitique ou même la linguistique, alors la partie sciences humaines de l’équipe applique leurs connaissances », explique Degli-Esposti, qui souligne la nécessité d’équipes interdisciplinaires comme celle de Tresca pour l’étiquetage et les informations que les systèmes d’intelligence artificielle ne contiennent pas de biais graves.

« Dans la recherche sur les mégadonnées et la science des données, il existe un besoin croissant de compléter l’analyse qualitative et quantitative d’un phénomène et d’évaluer les biais des humains et des algorithmes. La qualité de la labellisation des bases de données utilisées pour entraîner les modèles d’intelligence artificielle est cruciale pour assurer la fiabilité des résultats », prévient Degli-Esposti.

Son nouvel outil permet à l’utilisateur de créer sa propre carte mentale, d’une part pour comprendre comment fonctionne la propagation de fausses informations, et d’autre part pour comprendre son propre état d’esprit et enfin pour découvrir pourquoi il croyait que certains faits étaient vrais. fausses nouvelles.

« Nous voulons soutenir les journalistes et fournir aux utilisateurs un guide adéquat pour l’utilisation de la technologie numérique afin de pouvoir analyser de première main le degré de fiabilité », explique Arroyo. « C’est un domaine de recherche sur lequel nous continuons à travailler. Nous pensons qu’une méthodologie et un ensemble d’outils sont plus efficaces que de dire aux gens quelles nouvelles croire », conclut Arroyo.

Esther M. García Pasteur / Communications CSIC

Malgier-Favager

"Incurable troublemaker. Explorer. Student. Professional alcohol specialist. Internet geek."

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *