TENDANCES
Comparateur
- AUTO
Une nouvelle recherche vient d’être publiée par le MIT Media Lab, qui semble confirmer certains soupçons que des experts dans le domaine avaient déjà exprimés auparavant : la technologie de reconnaissance faciale présente un biais clair selon les sets de données avec lesquels on nourrit les algorithmes. C’est Joy Buolamwini, chercheur au MIT, qui a mené l’étude. En se basant sur un set de données avec 1,270 visages provenant de photos de politiciens et politiciennes issus de pays où la parité homme/femme est la mieux représentée. Après quoi, il a traité ces données selon trois logiciels de reconnaissance faciale différents : un de Microsoft, un d’IBM et un de Megvii, en Chine. Les résultats ont montré un manque de précision certain en ce qui concerne l’identification du genre selon la couleur de peau.

Ainsi, le genre n’a pas été correctement identifié dans moins d’1% des cas d’hommes à la peau claire, dans 7% des femmes à la peau claire, 12% pour les hommes à la peau plus sombre, et 35% pour les femmes qui présentent également une peau sombre. En croisant les résultats des différents logiciels du monde, il paraît donc évident pour le chercheur qu’il est plus difficile pour eux de gérer la reconnaissance faciale dans le cas où la peau n’est pas suffisamment claire.
Arrivée dans notre Système solaire au cœur de l’été 2025, la comète interstellaire 3I/Atlas continue de...
Mistral AI, l’entreprise française d’intelligence artificielle, annonce aujourd’hui le lancement de Mistral 3, sa nouvelle...
Google propose au téléchargement Android 16 QPR2, ce qui correspond à la deuxième grosse mise à jour pour le...
Face à une concurrence qui s’intensifie dangereusement, Sam Altman, le patron d’OpenAI, a décrété une «...
Amazon Prime Video a décidé de supprimer un doublage généré par intelligence artificielle pour l’anime Banana...