Le conseil de surveillance de Meta s'inquiète de la fin du fact-checking
Une pancarte est affichée devant le Meta Store le 29 janvier 2025 à Burlingame, en Californie. ©JUSTIN SULLIVAN / GETTY IMAGES NORTH AMERICA / Getty Images via AFP

Le conseil de surveillance de Meta a appelé mardi la direction du groupe à mesurer les possibles effets sur les atteintes aux droits humains de la suppression de son programme de fact-checking aux États-Unis et de l’assouplissement de la modération sur ses plateformes.

L’instance, créée en 2020, a estimé que la décision de Meta de renoncer à ses partenariats avec des organisations indépendantes de vérification avait été prise « à la hâte, en rupture avec la procédure normale », selon un rapport.

Elle n’a notamment été accompagnée « d’aucune information publique quant aux évaluations, si elles ont été réalisées, de son impact sur les droits humains » sur les réseaux sociaux Facebook, Instagram et Threads.

Début janvier, Meta a annoncé la fin du fact-checking aux États-Unis et a mis à jour son règlement et ses pratiques sur la modération des contenus.

Le groupe a ainsi décidé d’écarter moins de messages et de publications susceptibles de faire entorse à ses standards, notamment en matière de propos visant des minorités.

Meta a fait valoir que, jusqu’ici, « trop de contenus étaient censurés alors qu’ils n’auraient pas dû l’être ».

En réaction, plusieurs organisations ont mis en garde contre les conséquences de ces changements pour les minorités, notamment la communauté LGBTQ+.

« Il est aujourd’hui essentiel que Meta identifie et traite les effets négatifs qui pourraient en résulter sur les droits humains », a demandé le conseil, qui a formulé une série de recommandations liées aux modifications annoncées début janvier.

Fausses informations 

Il a, entre autres, suggéré à Meta de « mesurer l’efficacité des notes de contexte, par comparaison au fact-checking, tout particulièrement dans des situations où la propagation de fausses informations pose un risque pour la sécurité des personnes ».

Le groupe californien a choisi de remplacer le fact-checking par des notes de contexte, des commentaires produits par des utilisateurs référencés estimant qu’un message nécessite des précisions ou de la contextualisation, le plus souvent en y joignant des sources.

Ce système est une déclinaison de celui utilisé sur X (ex-Twitter). Plusieurs études ont conclu que les notes de contexte n’avaient qu’un effet limité pour empêcher la propagation de la désinformation sur la plateforme.

L’AFP participe dans plus de 26 langues à un programme de vérification des faits développé par Facebook, qui rémunère plus de 80 médias à travers le monde.

Mardi toujours, le conseil a rendu plusieurs décisions concernant des contenus dont il avait été saisi.

Parmi les cas les plus marquants, celui de deux messages postés en marge d’émeutes au Royaume-Uni après le meurtre de trois enfants, fin juillet.

L’homme soupçonné d’être le tueur avait été présenté à tort comme demandeur d’asile musulman alors qu’il est né au pays de Galles dans une famille originaire du Rwanda.

Le premier des deux messages, générés grâce à l’intelligence artificielle (IA), mettait en scène un homme pourchassant un individu identifié comme musulman.

Le second montrait quatre hommes, également présentés comme musulmans, à la poursuite d’un jeune enfant.

Saisi par des utilisateurs, Meta avait décidé, après examen, de laisser ces messages sur ses plateformes. Ils « présentaient un risque de mise en danger imminente » d’individus et « auraient dû être retirés », a jugé le conseil.

Ce dernier souligne que le Royaume-Uni n’a été identifié comme zone à risque que plus d’une semaine après le début des émeutes et se dit « préoccupé de voir Meta se montrer trop lent à mettre en place des mesures de crise ».

AFP

Commentaires
  • Aucun commentaire