TENDANCES
Comparateur
- AUTO
Une équipe du MIT du laboratoire Computer Science and Artificial Intelligence Laboratory (CSAIL) a mis au point une IA prédictive capable de « voir » en touchant et de « ressentir » en voyant. Reliée à un bras-robot KUKU et un capteur tactile GelSight, l’IA du MIT a analysé plus de 12000 « touchers » de 200 objets différents et près de 3 millions d’images « visuelles/tactiles » (baptisées VisGel).
Résultat de ce bombardement de données : l’IA prédictive est désormais capable de prédire la sensation et le toucher d’un objet simplement en le regardant… et inversement. Le couple bras-robot + IA prédictive peut aussi déterminer à l’aveugle la forme visuelle d’un objet en le touchant/manipulant, ainsi que pourrait le faire un être humain.
Cette innovation est d’importance dans le domaine robotique : assisté de ce type d’IA prédictive, un robot saura dorénavant déterminer la forme d’un objet simplement en le saisissant, ce qui facilitera les manipulations d’objets non référencés par le robot. Les manipulations « à l’aveugle » seront aussi essentielles pour les robots d’assistance, notamment dans les environnements de catastrophes: la machine pourra intervenir sans aucune luminosité extérieure ou artificielle.
Mourir peut attendre, le nouveau James Bond, est encore une fois reporté, avec cette fois la date de sortie calée pour le 8 octobre 2021....
Samsung a décidé de retirer la mise à jour Android 11 (One UI 3.0) pour les Galaxy S10 au vu des nombreux bugs. Le premier...
Free est visé par une assignation en justice de Familles Rurales concernant la 5G et les pratiques commerciales déloyales. Pour...
Après le X60 et X60 Pro, Vivo monte encore d’un cran son haut de gamme. Le fabricant vient de dévoiler le X60 Pro+, un smartphone qui...
Samsung annonce lancer la production d’écrans OLED avec un affichage de 90 Hz à destination des PC portables qui verront le jour en...