Robo Brain, une intelligence collective pour les robots du futur

Robot-Learning-Lab---CornellLa base de données Robo Brain est en ligne. Celle-ci contient déjà des milliards d’images, de fichiers 3D et de vidéos, mais celle-ci n’est pas destinée aux internautes, mais aux robots. Projet commun entre les prestigieuses universités de Cornell, Berkeley et Brown, Robo Brain doit permettre aux robots qui s’y connecteront de reconnaître les objets présents dans leur environnement, mais aussi savoir comment les utiliser. Une utilisation avancée de ce que l’on appelle le Machine learning, cette discipline de l’intelligence artificielle où le logiciel va apprendre par lui-même. Les implications de Robo Brain sont multiples, tant dans la recherche robotique, la robotique de services, mais aussi les voitures autonomes.

Le Deep Learning au service de la robotique

Les informations délivrées par Robo Brain aux robots.

L’ensemble des informations délivrées par Robo Brain aux robots.

Imaginez : Vous venez de déballer votre robot de service flambant neuf. Vous le mettez en marche et, immédiatement celui-ci se dirige vers votre cuisine et entreprend de vider le lave-vaisselle. Il prend les tasses, les verres, les assiettes et casseroles aux formes les plus diverses et se charge de les ranger dans vos placards. Tous ceux qui programment des robots peuvent imaginer la complexité d’un tel scénario. Une tâche qui pourrait sembler pourtant extrêmement simple pour un humain. Le secret de ce robot d’un futur peut être assez proche, c’est qu’il s’est connecté à Robo Brain pour analyser votre appartement, votre cuisine, le contenu de votre lave-vaisselle. C’est dans le Cloud, sur Internet, qu’il a pu reconnaître les objets qui l’entourent, apprendre comment ouvrir le lave-vaisselle, reconnaître les verres, les tasses, apprendre comment s’en saisir sans les laisser tomber et les placer dans les placards de la cuisine.

Des robots capables d’apprendre à interagir avec les objets

PlanIt

Une ‘heat map’ associé à l’objet permet au robot de savoir qu’il ne doit pas approcher un couteau d’un humain.

Ashutosh Saxena, professeur assistant à l’université de Cornell et directeur du laboratoire de Robot Learning travaille sur la problématique de faire comprendre aux robots leur environnement et leur permettre d’apprendre de manière autonome à interagir avec les objets. Les algorithmes développés par son équipe sont impressionnants. A partir des milliards de photos stockées sur Robo Brain, le robot analyse l’environnement et va créer un graphe où chacun de ces objets. Un graphe qui va rapidement se remplir de milliers de nœuds s’il s’agit d’un robot de service dans une cuisine, de centaines de milliers de noeuds s’il s’agit d’un véhicule autonome qui roule dans une rue. Non seulement la base de données lui permet de reconnaître les objets, mais elle lui indique aussi la façon de les utiliser. Savoir comment se saisir d’une tasse par exemple n’a rien d’évident pour un robot qui voit un mug ou une tasse à café en porcelaine de Limoges pour la première fois. Outre les points d’accrochage possibles pour attraper l’objet, Robo Brain indique les comportements à adopter avec l’objet. On ne renverse pas une boites d’œufs, on ne passe pas au dessus d’un portable avec un verre d’eau, on ne dirige pas un couteau vers un être humain. Autant de comportement de bon sens qu’apprend petit à petit le jeune enfant mais qu’il faut aussi inculquer au robot. Mais les travaux d’Ashutosh Saxena vont plus loin encore. Sa base de données stocke les comportements humains relatifs aux objets. Vous saisissez la casserole sur la cuisinière. Plusieurs options d’offrent alors à vous : la poser sur la table, la placer dans le lave-vaisselle, dans le réfrigérateur ou dans le placard. 4 scénarios que vont robot de service va avoir en tête dès que vous vous saisissez de la casserole. Vous faites un pas vers le frigo ? Votre robot en déduit que vous allez placer la casserole au frigo, il anticipe le mouvement et va ouvrir la porte du réfrigérateur sans que vous ayez besoin de lui en donner l’ordre. Science fiction ? Le chercheur explique qu’ainsi, le robot peut anticiper vos mouvements avec 3 à 10 secondes d’avance ! Vous jugez que le comportement du robot n’est pas satisfaisant et ne correspond par à vos habitudes. Il vous suffit de le prendre par « la main » et lui montrer ce que vous attendez de lui. Ce que le chercheur appelle l’active learning va permettre au robot d’ajouter ce nouveau scénario d’usage dans sa base de données. A ce jour, Robo Brain dispose de 14 millions d’images issues d’imageNet, 1,4 milliard d’images provenant de yahoo ! Images, 2 millions de fichiers 3D ainsi que 120 millions de vidéos Youtube. Aux concepteurs de robots d’exploiter à leur tour cette intelligence collective pour apprendre à leurs réalisations à interagir avec leur environnement. Sources : « The Plan to Build a Massive Online Brain for All the World’s Robots », Wired, 25 août 2014 « Robo Brain Downloads and Stores Images, Videos and Data in a Robot-Friendly Format », AzoRobotics, 25 août 2014 « ‘Robo Brain’ will teach robots everything from the Internet », Phys.org, 25 août 2014

Commentaires Facebook
Twitter Facebook Plusone Pinterest Linkedin
Ce contenu a été publié dans Robotique, avec comme mot(s)-clé(s) , , . Vous pouvez le mettre en favoris avec ce permalien.