TENDANCES
Comparateur
- AUTO
Une équipe du MIT du laboratoire Computer Science and Artificial Intelligence Laboratory (CSAIL) a mis au point une IA prédictive capable de « voir » en touchant et de « ressentir » en voyant. Reliée à un bras-robot KUKU et un capteur tactile GelSight, l’IA du MIT a analysé plus de 12000 « touchers » de 200 objets différents et près de 3 millions d’images « visuelles/tactiles » (baptisées VisGel).

Résultat de ce bombardement de données : l’IA prédictive est désormais capable de prédire la sensation et le toucher d’un objet simplement en le regardant… et inversement. Le couple bras-robot + IA prédictive peut aussi déterminer à l’aveugle la forme visuelle d’un objet en le touchant/manipulant, ainsi que pourrait le faire un être humain.
Cette innovation est d’importance dans le domaine robotique : assisté de ce type d’IA prédictive, un robot saura dorénavant déterminer la forme d’un objet simplement en le saisissant, ce qui facilitera les manipulations d’objets non référencés par le robot. Les manipulations « à l’aveugle » seront aussi essentielles pour les robots d’assistance, notamment dans les environnements de catastrophes: la machine pourra intervenir sans aucune luminosité extérieure ou artificielle.
Le Black Friday 2025 a confirmé une tendance de fond : les consommateurs français privilégient la qualité à la...
Quatorze ans après sa sortie initiale, The Elder Scrolls V: Skyrim s’offre une nouvelle jeunesse… sur la Nintendo Switch 2. Bethesda...
Le télescope spatial James Webb vient de dénicher une nouvelle merveille astronomique, soit une supernova (GRB 250314A) remontant à...
Quelle société technologique ne s’est pas encore mise à l’IA ? Le constructeur automobile Rivian annonce travailler...
Spotify propose pour la première fois un contrôle accru sur son algorithme de recommandation via une nouvelle fonctionnalité...