Comparateur
- AUTO
Google repousse les limites de l’intelligence robotique avec l’introduction du modèle d’apprentissage d’IA Robotic Transformer (RT-2). Cette version améliorée du modèle vision-langage-action (VLA) a été conçue pour améliorer la capacité des robots à reconnaître les schémas visuels et linguistiques, permettant aux machines d’interpréter plus efficacement les instructions et de discerner les objets les plus appropriés pour des tâches spécifiques.
Lors des différents tests, les chercheurs ont utilisé RT-2 avec un bras robotisé. Ils ont mis au défi le bras robotique et lui ont « demandé » de sélectionner parmi une liste d’objets une boisson destinée à un individu épuisé (ici une canette de Red Bull). Ils ont aussi demandé au robot de déplacer une canette de Coca vers une photo de Taylor Swift (et bien sûr, le bras–robot s’est correctement exécuté).
Le modèle RT-2 a suivi une formation complète sur les données Web et robotiques, capitalisant sur les avancées de la recherche dans les grands modèles de langage comme Google’s Bard. Avec les prouesses des modèles VLA comme RT-2, les robots peuvent désormais accéder à une mine d’informations et ainsi améliorer rapidement leurs performances en limitant au maximum les interventions extérieures.
SOURCEThe Verge
Le télescope spatial Hubble de la NASA est actuellement confronté à des difficultés techniques avec l’un de ses...
Les taxis-volants sont sans nul doute l’un des symboles les plus forts d’un imaginaire de S.F… qui peine encore à se...
Le Pixel 8a, le prochain smartphone de Google, va bénéficier de 7 ans de mises à jour logicielles. C’est déjà le...
La Commission européenne a ajouté Shein, le champion du prêt-à-porter bon marché, à la liste des très...
Après Huawei et bientôt TikTok, DJI pourrait à son tour faire ls frais de la guerre technologique et commerciale que se livrent la...
27 Apr. 2024 • 8:21
27 Apr. 2024 • 7:00
27 Apr. 2024 • 6:32
26 Apr. 2024 • 20:35