Meta a trouvé une nouvelle matière première pour nourrir ses modèles d’intelligence artificielle : l’activité quotidienne de ses propres employés. La firme dirigée par Mark Zuckerberg prévoit en effet d’exploiter les mouvements de souris, clics, frappes clavier et certaines interactions à l’écran de ses employés pour améliorer ses agents capables d’utiliser un ordinateur comme un humain. Ou l’on comprend que les géants de la tech sont prêts à aller loin pour obtenir des données d’entraînement plus riches et surtout plus proches des usages réels.
Des gestes ordinaires transformés en données pour l’IA
Meta estime donc que pour créer des agents capables d’exécuter des tâches bureautiques ou de naviguer dans des interfaces complexes, il faut montrer à ces IA comment les humains s’y prennent réellement, ce qu’un porte-parole du groupe a résumé ainsi : « Si nous voulons construire des agents capables d’aider les gens à accomplir des tâches quotidiennes sur ordinateur, nos modèles ont besoin d’exemples réels de la façon dont les personnes les utilisent. »

Dans cette logique, Meta déploie un outil interne chargé d’observer certains usages professionnels sur des applications et sites liés au travail. L’entreprise affirme que ces données ne serviront qu’à l’entraînement de ses modèles et qu’elles ne seront pas utilisées pour évaluer les performances des employés (vous la sentez la polémique qui enfle ?). La course à la data vient en tout cas de prendre une nouvelle tournure : Les grands laboratoires d’IA ne se contentent plus du web public ou des bases de données traditionnelles mais cherchent désormais des interactions plus fines, plus contextuelles, plus proches du geste humain dans des environnements numériques concrets.
Une avancée technique qui relance les inquiétudes sur la surveillance
Afin d’éviter toute critique sur de possibles dérives, Meta assure qu’« il existe des garde-fous pour protéger les contenus sensibles ». Même avec ces précautions, le simple fait d’enregistrer les comportements numériques des salariés pour entraîner des modèles jettera le soupçon d’une surveillance masquée. Certes, Meta a déjà traversé bien des « shitstorms », surtout durant l’affaire Cambridge Analytica, mais il reste sans doute des limites à ne pas dépasser.