Comparateur
- AUTO
Une équipe du MIT du laboratoire Computer Science and Artificial Intelligence Laboratory (CSAIL) a mis au point une IA prédictive capable de « voir » en touchant et de « ressentir » en voyant. Reliée à un bras-robot KUKU et un capteur tactile GelSight, l’IA du MIT a analysé plus de 12000 « touchers » de 200 objets différents et près de 3 millions d’images « visuelles/tactiles » (baptisées VisGel).
Résultat de ce bombardement de données : l’IA prédictive est désormais capable de prédire la sensation et le toucher d’un objet simplement en le regardant… et inversement. Le couple bras-robot + IA prédictive peut aussi déterminer à l’aveugle la forme visuelle d’un objet en le touchant/manipulant, ainsi que pourrait le faire un être humain.
Cette innovation est d’importance dans le domaine robotique : assisté de ce type d’IA prédictive, un robot saura dorénavant déterminer la forme d’un objet simplement en le saisissant, ce qui facilitera les manipulations d’objets non référencés par le robot. Les manipulations « à l’aveugle » seront aussi essentielles pour les robots d’assistance, notamment dans les environnements de catastrophes: la machine pourra intervenir sans aucune luminosité extérieure ou artificielle.
Des chercheurs de Microsoft ont mis au point une technologie d’intelligence artificielle qui permettra de transformer une photo de visage et un...
ByteDance, la maison-mère de TikTok, a tenu à démentir une information publiée aujourd’hui, selon laquelle elle...
Google a finalement décidé de ne pas proposer son interface qui mettait la vidéo au centre et tout le reste à droite au niveau...
Quelques jours à peine après la bêta 1.1, Google propose au téléchargement la bêta 1.2 pour Android 15. Elle vient...
Depuis 2005, Blizzard organise chaque année un évènement qui a pour nom BlizzCon et qui est l’occasion de faire des annonces...
25 Apr. 2024 • 20:52
25 Apr. 2024 • 19:30
25 Apr. 2024 • 18:34
25 Apr. 2024 • 18:12