Facebook a décidé de jouer la carte de la transparence et dévoile pour la première fois des chiffres qui concernent la modération des contenus sur sa plateforme. Le but est de montrer les efforts qui sont faits suite à différentes critiques.

Voici les cinq données mises en avant :
- 3,5 millions de contenus violents ou haineux supprimés au premier trimestre 2018
- 21 millions de contenus comprenant de la nudité adulte ou de la pornographie supprimés au premier trimestre 2018
- 837 millions de contenus relatifs à des spams supprimés au premier trimestre 2018
- 583 millions de faux comptes désactivés au premier trimestre 2018
- 1,9 million de contenus liés au terrorisme supprimés au premier trimestre 2018
Selon Facebook, près de 100% des spams ont été détectés par lui-même directement, sans la nécessité d’avoir un signalement de la part des utilisateurs. Concernant les faux comptes, la plupart ont été désactivés quelques minutes seulement après leur création. Pour ce qui est de la nudité, 96% des contenus ont été détectés par Facebook et 4% ont été signalés par les utilisateurs. Par ailleurs, Facebook dit avoir détecté tout seul 86% des images violentes. Enfin, 99,5% des contenus liés au terrorisme ont été repérés par Facebook.
Facebook indique se reposer sur de l’intelligence artificielle pour détecter les « mauvais » contenus, mais il reconnaît que la technologie n’est pas parfaite. Certains statuts peuvent évoquer de la haine parce qu’ils dénoncent une situation et non pour insulter quelqu’un. Facebook promet en tout cas d’investir pour améliorer son intelligence artificielle.