TENDANCES
Comparateur
- AUTO
Une nouvelle recherche vient d’être publiée par le MIT Media Lab, qui semble confirmer certains soupçons que des experts dans le domaine avaient déjà exprimés auparavant : la technologie de reconnaissance faciale présente un biais clair selon les sets de données avec lesquels on nourrit les algorithmes. C’est Joy Buolamwini, chercheur au MIT, qui a mené l’étude. En se basant sur un set de données avec 1,270 visages provenant de photos de politiciens et politiciennes issus de pays où la parité homme/femme est la mieux représentée. Après quoi, il a traité ces données selon trois logiciels de reconnaissance faciale différents : un de Microsoft, un d’IBM et un de Megvii, en Chine. Les résultats ont montré un manque de précision certain en ce qui concerne l’identification du genre selon la couleur de peau.
Ainsi, le genre n’a pas été correctement identifié dans moins d’1% des cas d’hommes à la peau claire, dans 7% des femmes à la peau claire, 12% pour les hommes à la peau plus sombre, et 35% pour les femmes qui présentent également une peau sombre. En croisant les résultats des différents logiciels du monde, il paraît donc évident pour le chercheur qu’il est plus difficile pour eux de gérer la reconnaissance faciale dans le cas où la peau n’est pas suffisamment claire.
TikTok annonce que son réseau social fermera ses portes ce dimanche, le 19 janvier 2025, aux États-Unis. Cela fait suite à...
Google a informé l’Union européenne qu’il ne s’engageait pas à intégrer le travail des organisations de...
Les robots humanoïdes G1 d’Unitree font leur footing dans la dernière vidéo publiée par la firme chinoise, et c’est...
L’année passée a été difficile pour l’émulation, avec une pression croissante de la part de Nintendo qui a...
Un incendie s’est déclaré à la Moss Landing Energy Storage Facility (en Californie), la plus grande installation de stockage...
18 Jan. 2025 • 7:13
17 Jan. 2025 • 20:46
17 Jan. 2025 • 19:21
17 Jan. 2025 • 18:52