Les lois d’Asimov doivent-elles s’appliquer aux voitures autonomes ?

Google-Selfdriving-carLa troisième génération de voitures autonomes Google a pris la route. Après les premiers prototypes de Prius en 2009, une flotte de Lexus , Google a lancé 25 « Koala car » à l’assaut des routes de Californie. Les premières ont parcouru 2 millions de miles sans provoquer d’accident, ni être impliquées dans un accident mortel. Néanmoins, en 6 ans, les voitures Google ont été impliquées dans 12 accidents. Un jour où l’autre une voiture autonome va devoir choisir : protéger son conducteur à tout prix, y compris s’il faut sacrifier un piéton ?

La voiture autonome doit-elle protéger à tout prix la vie de ses passagers ?

Faut-il inculquer quelques règles morales à une intelligence artificielle ? Une voiture autonome lancée à pleine vitesse quand soudain un car de ramassage scolaire lui coupe la route. La voiture doit-elle éviter le car à tous prix en prenant le risque de tuer son passager ?

Selfdriving-prius

Google teste les voitures autonomes depuis 6 ans. Sa Prius sillonnait le campus Google dès 2009.


Ce scénario, évoqué par Automotive News, est un problème auquel les constructeurs doivent apporter une solution consensuelle avec le risque de multiples procès en cas d’accident.

La nouvelle voiture autonome de Google, dépourvue de volant et de pédales, laisse donc à l’automatisme le seul maître à bord, même en cas d’urgence.

Lorsqu’il rédigea ses trois lois de la robotique, en 1949, Asimov imaginer qu’elle devait s’appliquer aux robots humanoïdes qui peuplent ses romans. Peut-être que finalement ce sont les automobiles et peut être aussi les avions qui devraient les implémenter en priorité.

Les 3 lois de la robotique de 1949 :

  1. 1. Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger.
  2. 2. Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la Première loi.
  3. 3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième loi.

Les chercheurs réfléchissent à la question et travaillent avec les constructeurs pour intégrer ce type de comportements à leurs futures voitures autonomes. Après les crash-tests, les voitures du futur seront-elles aussi notées sur leur sens de l’éthique ?

Sources :

« Should driverless cars make life-or-death decisions? », Automotive News, 25 juin 2015

« Google is now reporting all its driverless car crashes. Will other carmakers follow? », The Washington Post, 6 juin 2015

« Why Ethics Matters for Autonomous Cars », Patrick Lin, Springer 2015

« Trois lois de la robotique », Wikimedia

Commentaires Facebook
Twitter Facebook Plusone Pinterest Linkedin
Ce contenu a été publié dans Non classé, avec comme mot(s)-clé(s) , . Vous pouvez le mettre en favoris avec ce permalien.