TENDANCES
Comparateur
- AUTO
Une nouvelle recherche vient d’être publiée par le MIT Media Lab, qui semble confirmer certains soupçons que des experts dans le domaine avaient déjà exprimés auparavant : la technologie de reconnaissance faciale présente un biais clair selon les sets de données avec lesquels on nourrit les algorithmes. C’est Joy Buolamwini, chercheur au MIT, qui a mené l’étude. En se basant sur un set de données avec 1,270 visages provenant de photos de politiciens et politiciennes issus de pays où la parité homme/femme est la mieux représentée. Après quoi, il a traité ces données selon trois logiciels de reconnaissance faciale différents : un de Microsoft, un d’IBM et un de Megvii, en Chine. Les résultats ont montré un manque de précision certain en ce qui concerne l’identification du genre selon la couleur de peau.

Ainsi, le genre n’a pas été correctement identifié dans moins d’1% des cas d’hommes à la peau claire, dans 7% des femmes à la peau claire, 12% pour les hommes à la peau plus sombre, et 35% pour les femmes qui présentent également une peau sombre. En croisant les résultats des différents logiciels du monde, il paraît donc évident pour le chercheur qu’il est plus difficile pour eux de gérer la reconnaissance faciale dans le cas où la peau n’est pas suffisamment claire.
Adam Mosseri, le patron Instagram, estime que l’esthétique soigneusement orchestrée qui a fait la gloire de son réseau social...
SpaceX entame une reconfiguration de sa flotte orbitale pour l’année 2026 en annonçant son intention de déplacer près de...
La Poste donne quelques détails concernant la nouvelle cyberattaque qui la vise depuis le passage à 2026. Cela fait suite à une...
Grok, l’intelligence artificielle disponible sur le réseau social X (ex-Twitter) d’Elon Musk, se fait remarquer depuis quelques jours...
La sécurité de la PlayStation 5 vient de subir un revers critique avec la divulgation publique des ROM Keys, à savoir les clés...