Pourquoi des chercheurs apprennent au robot à se rebeller

Robot-rebelLes plus paranoïaques verront sans nul doute les prémices du Skynet, cette IA qui se rebelle contre l’espèce humaine et déclenche la guerre entre les robots et les humaines dans Terminator.

Gordon Briggs et Matthias Scheutz chercheurs du laboratoire d’interaction homme/robot de l’université Tufts du Massachusetts viennent de présenter les résultats de leurs travaux.

Jugeant les 3 lois d’Asimov notoirement insuffisantes, ils ont voulu donner au robot une approche plus « humaine » et appris au robot à… désobéir.

Apprendre aux robots à refuser certains ordres

‘Sorry, I Can’t Do That’, ainsi est baptisé le sujet de recherche présenté par ces deux chercheurs à Washington, lors du récent symposium « AI for Human-Robot Interaction ». Ils ont développé des algorithmes qui permettent à un robot, un Nao en l’occurence, de refuser les ordres d’un humain si le robot a une bonne raison pour cela. Un opérateur demande à Nao d’avancer alors qu’il se trouve sur une table, celui-ci refuse car la chute est inévitable.

L’objectif pour ces chercheurs est d’implémenter dans le robot un comportement proche du comportement humain où le comportement d’un individu dépend de ce que l’on appelle les condition de réussite (felicity conditions). le faisceau d’éléments qui font que la personne va juger qu’elle doit exécuter l’ordre ou pas. Pour l’humain tout comme le robot, ce jugement va bien au-delà des simples 3 lois d’Asimov (ne pas blesser un humain / obéir aux humains sans contrevenir à la loi n°1 / protéger sa propre existence sans contrevenir aux deux premières lois). Dans le comportement implémenté par les chercheurs, le robot va considérer 5 éléments avant d’obéir à un ordre.
NaoCertaines sont assez triviales : connaissance (est-ce que je sais faire la tâche qui m’est demandée), capacité (suis-je capable de l’accomplir), priorité (puis-je le faire maintenant), les deux suivantes sont plus étonnantes pour un robot. Il va d’une part évaluer l’aspect social de son acte. Dois-il obéir à la personne qui lui donne un ordre ? En outre, il va étudier s’il à la permission de réaliser son acte. C’est cet empilement de règles « de vie » qui empêche Nao de tomber de la table bien que son maître le lui demande.

 

Source : « Researchers Teaching Robots How to Best Reject Orders from Humans », IEEE Spectrum, 19 novembre 2015

 

Commentaires Facebook
Twitter Facebook Plusone Pinterest Linkedin
Ce contenu a été publié dans Robotique, avec comme mot(s)-clé(s) . Vous pouvez le mettre en favoris avec ce permalien.