Faut-il avoir peur de l’intelligence artificielle ? Stanford lance une étude

IACes dernières semaines, quelques déclarations alarmistes ont été relayées par les médias quant aux dangers potentiels de l’intelligence artificielle. Des déclarations a prendre au sérieux puisqu’elles n’émanent pas de romanciers de SF à l’imagination débridée ou de quelques charlatans en mal de médiatisation. Elon Musk et Stephen Hawking évoquent rien moins que la fin de l’espèce humaine. D’autres, comme Eric Horvitz estiment que son impact sera positif et une source de progrès pour l’humanité. Les chercheurs de Stanford vont tenter d’arbitrer entre ces deux visions.

La robotique militaire n’est que la partie émergée du problème

Jamais un scénario à la Terminator, avec une intelligence artificielle, le Skynet, qui se retourne contre son créateur pour le détruire avec une armée de robots, n’a jamais été aussi fréquemment évoqué dans la presse. Que des esprits aussi brillants que Stephen Hawking ou Elon Musk (par ailleurs investisseur dans Vicarious, une des startups en pointe en intelligence artificielle) évoquent à leur tour un tel scénario d’apocalypse donne effectivement à réfléchir. C’est vrai, l’intelligence artificielle militaire pose un réel problème éthique. Des drones frappent tous les jours au Moyen-Orient, en Afghanistan. Des terrestres robots armés commencent à arriver dans les arsenaux, mais pour l’heure c’est l’homme qui appuie encore sur le bouton au moment de tirer. Des discussions à l’ONU porte sur une éventuelle interdiction de robots militaires autonomes dans leurs décisions.

Eric Horvitz lors du TEDx Austin 2014.

Eric Horvitz lors du TEDx Austin 2014.

Si le risque que de tels robots soient un jour lâchés un jour ou l’autre sur les champs de bataille est bien réel, les risques présentés par la montée en puissance de l’intelligence artificielle et plus largement du logiciel dans notre quotidien pose bien plus de question. L’étude réalisée par l’AAAI (Association for the Advancement of Artificial Intelligence), dirigé par Eric Horvitz, co-directeur de Microsoft Research a cherché a évoluer les dangers de l’intelligence artificielle sur le long terme. Outre ces applications militaires, leur étude pointe un certain nombre d’applications potentiellement dangereuses : robots domestiques, voitures autonomes, sont les plus évidentes, mais une intelligence artificielle « malveillante » pourrait bien vider votre compte en banque via des outils E-Commerce, ou encore des agents intelligents qui se feront passer pour des humains à des fins d’extorsion de fonds. Enfin, les chercheurs évoquent le risque d’addiction de personnes avec des être virtuels. Un phénomène déjà dépeint par Spike Jonze dans son film « Her » en 2013 et comme cela commence à être le cas au Japon où l’idée d’un mariage entre un humain et un robot commence déjà à être évoqué.

Pas de solution simple face à la montée en puissance inéluctable des intelligences artificielles

Comment accompagner la montée en puissance de l’intelligence artificielle dans nos sociétés ? La réponse est loin d’être simple. L’implantation de règles inspirées des 3 règles d’Asimov dans les robots et les agents logiciels ne résoudra qu’une part du problème puisque malfaiteurs et dictatures se garderont bien d’implémenter ce type de « scrupules » électroniques dans leurs réalisations. Cette première étude avait été menée de 2008 à 2009 et force et de constater que rien n’a encore véritablement bougé sur ce plan tant du côté des chercheurs, des industriels ou de la réglementation. Eric Horvitz vient de relacer une initiative, la « One Hundred Year Study on Artificial Intelligence (AI100) » avec l’Université de Stanford. Un vaste programme d’étude qui va chercher à évaluer comment l’intelligence artificielle va évoluer sur le long terme, quels seront ses impacts sur la démocratie et notre liberté, mais aussi sur l’économie, les équilibres militaires, le crime.
La réflexion est lancée, elle ne s’achèvera sans doute jamais.

 

Sources :

« One-Hundred Year Study of Artificial Intelligence: Reflections and Framing », Eric Horvitz, 2014

« Study to Examine Effects of Artificial Intelligence », The New York Times, 15 décembre 2014

« Stephen Hawking warns artificial intelligence could end mankind », BBC, 2 décembre 2014

« 5 Very Smart People Who Think Artificial Intelligence Could Bring the Apocalypse », Time, 2 décembre 2014

« Why Elon Musk is scared of artificial intelligence — and Terminators », Washington Post, 18 novembre 2014

Commentaires Facebook
Twitter Facebook Plusone Pinterest Linkedin
Ce contenu a été publié dans Développement, Robotique, avec comme mot(s)-clé(s) . Vous pouvez le mettre en favoris avec ce permalien.