TENDANCES
Comparateur
- AUTO
Une nouvelle recherche vient d’être publiée par le MIT Media Lab, qui semble confirmer certains soupçons que des experts dans le domaine avaient déjà exprimés auparavant : la technologie de reconnaissance faciale présente un biais clair selon les sets de données avec lesquels on nourrit les algorithmes. C’est Joy Buolamwini, chercheur au MIT, qui a mené l’étude. En se basant sur un set de données avec 1,270 visages provenant de photos de politiciens et politiciennes issus de pays où la parité homme/femme est la mieux représentée. Après quoi, il a traité ces données selon trois logiciels de reconnaissance faciale différents : un de Microsoft, un d’IBM et un de Megvii, en Chine. Les résultats ont montré un manque de précision certain en ce qui concerne l’identification du genre selon la couleur de peau.
Ainsi, le genre n’a pas été correctement identifié dans moins d’1% des cas d’hommes à la peau claire, dans 7% des femmes à la peau claire, 12% pour les hommes à la peau plus sombre, et 35% pour les femmes qui présentent également une peau sombre. En croisant les résultats des différents logiciels du monde, il paraît donc évident pour le chercheur qu’il est plus difficile pour eux de gérer la reconnaissance faciale dans le cas où la peau n’est pas suffisamment claire.
SOURCEnytimes
Microsoft a annoncé avoir obtenu le blocage de 240 sites liés à un réseau de cybercriminels, après avoir lancé...
C’est la grosse boulette de la semaine : si l’on en croit un dépôt de la cour de justice, les ingénieurs d’OpenAI...
La Bagnole (ça ne s’invente pas), un véhicule électrique conçu et fabriqué part une startup française,...
Des chercheurs britanniques de l’université de Birmingham ont développé une nouvelle théorie décrivant les...
C’est la semaine du Black Friday,l’avant dernière semaine du mois de novembre, qui est une période de grosses promotions pour...
22 Nov. 2024 • 14:56
22 Nov. 2024 • 12:50