TENDANCES
Comparateur
- AUTO
Une nouvelle recherche vient d’être publiée par le MIT Media Lab, qui semble confirmer certains soupçons que des experts dans le domaine avaient déjà exprimés auparavant : la technologie de reconnaissance faciale présente un biais clair selon les sets de données avec lesquels on nourrit les algorithmes. C’est Joy Buolamwini, chercheur au MIT, qui a mené l’étude. En se basant sur un set de données avec 1,270 visages provenant de photos de politiciens et politiciennes issus de pays où la parité homme/femme est la mieux représentée. Après quoi, il a traité ces données selon trois logiciels de reconnaissance faciale différents : un de Microsoft, un d’IBM et un de Megvii, en Chine. Les résultats ont montré un manque de précision certain en ce qui concerne l’identification du genre selon la couleur de peau.

Ainsi, le genre n’a pas été correctement identifié dans moins d’1% des cas d’hommes à la peau claire, dans 7% des femmes à la peau claire, 12% pour les hommes à la peau plus sombre, et 35% pour les femmes qui présentent également une peau sombre. En croisant les résultats des différents logiciels du monde, il paraît donc évident pour le chercheur qu’il est plus difficile pour eux de gérer la reconnaissance faciale dans le cas où la peau n’est pas suffisamment claire.
Elon Musk annonce que X (ex-Twitter) rendra public dans sept jours « le nouvel algorithme de X, incluant tout le code utilisé pour...
Il y a eu un piratage d’Instagram impliquant le vol de données personnelles de 17,5 millions de comptes. Cela fait suite à une faille...
Le président de l’Autorité de la concurrence avertit Orange, Bouygues Telecom et Free que le rachat de SFR déclenchera...
L’Autorité de la concurrence va lancer une enquête approfondie sur les agents conversationnels tels que ChatGPT et Gemini afin...
L’énergie est le nerf de la guerre dans l’essor des IA : Meta vient d’annoncer plusieurs accords majeurs visant à...