Ce robot est capable de vous parler tout en vous donnant à manger et en faisant la vaisselle, c’est bluffant
Figure AI, une société spécialisée dans la robotique, vient de publier une nouvelle vidéo à propos de son dernier prototype et il s’agit certainement de la chose la plus impressionnante que vous verrez cette semaine. Grâce à la technologie d’OpenAI, ce dernier peut tout à faire tenir une conversation tout en réalisant des tâches ménagères simples.
L’ère des robots humanoïdes a commencé et, si les avancées dans le domaine sont encore relativement rares, certains prévoient déjà d’utiliser ces derniers pour remplacer les humains dans les usines. D’autres se penchent plutôt sur la possibilité de faire de ces derniers une véritable aide domestique. Optimus, le robot de Tesla, se positionne déjà comme un véritable assistant du quotidien, lui qui est capable (plus ou moins) de plier des vêtements depuis quelques mois.
Figure AI est l’une des sociétés désormais engagées dans cette course. Et il se pourrait qu’elle ait un train d’avance sur la concurrence. Hier, la firme a partagé une vidéo présentant les progrès réalisés sur Figure 01, son prototype de robot humanoïde. En apparence, celui-ci n’a rien de particulier comparé aux modèles Tesla ou Boston Dynamics. Mais il suffit de lui parler pour que celui-ci affiche un détail intéressant : le logo d’OpenAI.
Sur le même sujet —Ce bras-robot se contrôle avec votre respiration et devient un membre à part entière
Ce robot utilise la technologie d’OpenAI pour tenir une conversation
La vidéo montre ainsi le robot réaliser diverses tâches qui lui sont demandées. Quand on lui demande de la nourriture, il tend une pomme posée sur le comptoir. Il range les déchets posés là et la vaisselle dans le séchoir prévu à cet effet. Tout cela, Figure 01 le fait en répondant aux questions et demandes de l’utilisateur. Quand on lui demande comment il pense s’en être tiré, celui-ci n’hésite pas à se donner une bonne évaluation — ce qu’on aurait bien du mal à lui enlever.
Pour réaliser cet exploit, Figure 01 est équipé de la technologie VLM, pour Visual Language Model. Celle-ci est similaire au LLM, qui fait notamment tourner ChatGPT, à ceci près qu’au lieu d’évaluer la meilleure possibilité pour construire une phrase, celle-ci est capable de scanner son environnement à la recherche de l’objet répondant le mieux à la demande de l’utilisateur. Ajoutez à cela des bras mécaniques équipés de mains fonctionnelles, et vous voilà avec ce qui ressemble aujourd’hui le plus à notre assistant de demain.