TENDANCES
Comparateur
- AUTO
Meta, la maison-mère de Facebook et d’Instagram, a récemment annoncé des changements significatifs dans sa politique de modération. Cette décision suscite des inquiétudes, notamment de la part des organisations luttant contre la désinformation en ligne. Selon une étude de l’ONG Center for Countering Digital Hate (CCDH), ces ajustements risquent de favoriser la désinformation et les contenus dangereux sur les deux réseaux sociaux.
Le 7 janvier dernier, Mark Zuckerberg, patron de Meta, a dévoilé un changement majeur : l’abandon du programme de fact-checking et des systèmes de détection des discours haineux, au profit de notes attribuées par la communauté. Une telle initiative pourrait entraîner l’arrêt de 97% des actions de modération actuelles sur la plateforme, d’après l’analyse du CCDH. Cette décision serait selon l’ONG un « raz-de-marée » de contenus préjudiciables aux utilisateurs, car les équipes spécialisées dans la lutte contre la désinformation disparaissent au profit de l’implication des internautes.
Le rapport de l’ONG souligne également la simplification des règles, notamment sur des sujets sensibles comme l’immigration et l’identité de genre. Meta justifie ce changement par un tournant culturel, soulignant que la priorité est désormais donnée à la liberté d’expression. Mais cette approche n’est pas sans poser question. « Meta doit expliquer à ses utilisateurs pourquoi il abandonne une approche qu’il présentait comme efficace contre la désinformation et la polarisation », a insisté Imran Ahmed, directeur du CCDH.
Cette décision s’inscrit dans un contexte plus large, celui de l’évolution des politiques de modération sur les réseaux sociaux. Récemment, X (ex-Twitter) d’Elon Musk a annoncé une mesure similaire concernant la vérification des informations, avec la promesse de « réparer » la fonctionnalité des notes de communauté afin de nuancer les publications potentiellement fausses. Cette évolution va dans le sens d’une décentralisation de la modération, une tendance que certains experts jugent inquiétante.
Pour Imran Ahmed, si les notes de la communauté sont « un ajout bienvenu », elles ne peuvent en aucun cas remplacer un travail de modération professionnel. Selon lui, une telle approche ne pourra jamais rivaliser avec des équipes dédiées et des systèmes automatisés de détection des contenus préjudiciables.
Google a annoncé avoir bouché une faille de sécurité critique dans son navigateur Chrome pour Windows, exploitée par...
Elon Musk a annoncé le rapprochement de sa start-up d’intelligence artificielle, xAI, avec le réseau social X (ex-Twitter). Ce rachat,...
Bouygues Telecom et Free mettent l’ADSL de côté et misent sur d’autres technologies, dont la fibre. Le premier a stoppé la...
Une partie des joueurs de Helldivers 2 sur PC se retrouvent dans l’impossibilité de lancer le jeu après une mise à jour...
Autosur, une entreprise française spécialisée dans le contrôle technique automobile, annonce avoir fait l’objet...
28 Mar. 2025 • 20:37