Les 3 lois de la robotique d’Asimov, bientôt une réalité ?

Stop-Killer-RobotsComment ne pas penser aux lois de la robotique écrites dès 1942 par Isaac Asimov ? Des chercheurs britanniques des universités de Sheffield, Liverpool et de Bristol viennent de lancer des nouveaux projets de recherche. Leur objectif est de doter les robots du futur d’une éthique.

Financé à hauteur de 1,4 million de £ par l’Engineering and Physical Sciences Research Council, il s’agit d’un projet tout ce qu’il y a de sérieux. A l’heure où les robots sont de plus en plus présents dans l’énergie, les transports, qu’ils vont conduire nos voitures, les chercheurs veulent mettre au point des méthodes de contrôles pour s’assurer que les robots qui seront mis au point par les chercheurs, les industriels, soit absolument sûrs, mais aussi aient un comportement éthique vis-à-vis des humains.

A quelles lois obéiront les robots du futur ?

Le professeur Sandor Veres, de l'université de Sheffieldveut apprendre l'éthique aux robots.

Le professeur Sandor Veres, de l’université de Sheffield veut apprendre l’éthique aux robots.


Une voiture automatique qui, en cas d’accident imminent choisit de se jeter contre une Mini plutôt que de percuter un gros SUV Volvo pour mieux protéger ses occupants, c’est le cas évoqué dans un récent article de Wired. Remplacez la Mini par un groupe de piétons sur le trottoir et la question de l’éthique de cet algorithme de pose. A-t-il le droit de préférer sacrifier ces piétons ou le conducteur d’une Mini pour éviter que son propre occupant ne soit blessé dans l’accident ? Voila qui met à mal la première des trois lois de la robotique d’Asimov qui dit que' »un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ». Moins dramatique, on sait que les Google cars autonomes peuvent, dans certains cas, enfreindre le code de la route. En ont elles le droit, même en cas de danger ?
Ce sont quelques-unes des questions auxquelles les chercheurs vont travailler très sérieusement lors de ces prochaines années. C’est le volet éthique du programme de recherche anglais qui s’intéresse aussi à la fiabilité de ces algorithmes. Le professeur Sandor Veres de l’université de Sheffield va notamment s’intéresser à la valider la fiabilité du code embarqué des robots via des méthodes formelles, des démonstrations mathématiques qui prouvent qu’un logiciel n’a pas de bug. Ce sont des techniques aujourd’hui appliquées au code embarqué dans le domaine de l’aéronautique et de l’aérospatial, mais qui pourraient bien se voir appliquées à bien d’autres applications embarquées. Le programme de recherche britannique doit s’achever en 2018, c’est à dire à peu près au moment où les premières voitures autonomes seront dans les bureaux d’études des constructeurs. Peut-être seront elles les premières à devoir appliquer les lois de la robotique du professeur Veres.

Sources : « New research will help robots know their limits », Communiqué de presse de l’Université de Sheffield, 8 décembre 2014
« Google’s driverless cars ‘will be allowed to speed' », The Telegraph, 19 août 2014
« The Robot Car of Tomorrow May Just Be Programmed to Hit You », Wired, 6 mai 2014

Commentaires Facebook
Twitter Facebook Plusone Pinterest Linkedin
Ce contenu a été publié dans Robotique, avec comme mot(s)-clé(s) . Vous pouvez le mettre en favoris avec ce permalien.