Rapport AI100 : Non, l’intelligence artificielle ne menace pas l’humanité

darwinLes chercheurs de Stanford qui participent à l’étude AI100 (alias One Hundred Year Study on Artificial Intelligence) viennent de publier leur rapport sur l’impact de l’intelligence artificielle et de la robotique sur nos société d’ici 2030. Le rapport se veut rassurant, il souligne  un certain nombre de dangers et fait une série de propositions afin de parer aux déséquilibres que ne manqueront pas de faire naître les progrès en intelligence artificielle.

Les chercheurs du comité AI100 se veulent rassurants

Un scénario de type Terminator est-il purement imaginaire, plausible ou même inévitable alors que les progrès réalisés en intelligence artificielle et en robotique s’accélèrent ? C’est le thème de l’étude AI100. Si le groupe d’étude est officiellement basé à Stanford, les membres du comité d’étude vont bien au-delà de l’université californienne puis qu’on y retrouve plusieurs autres grandes universités américaines, ainsi que Eric Horvitz, le directeur de Microsoft Research ou encore Astro Teller, le directeur de Google X.

La Moral Machine du MIT MediaLab. Aux internautes de choisir le comportement que devra avoir une IA face à des situations critiques.

La ‘Moral Machine’ du MIT MediaLab. Aux internautes de choisir le comportement que devra avoir une IA face à des situations critiques.

Les résultats de leur étude sont plutôt rassurants. Ces chercheurs estiment que les avancées réalisées en intelligence artificielle sont suffisamment progressives pour que l’homme ait le temps de s’y adapter. Les chercheurs estiment que des applications telles que la conduite autonome, avec la réduction du nombre d’accidents de la route attendue, devraient aider les population à mieux accepter l’intelligence artificielle dans leur quotidien. Intelligence humaine et intelligence artificielle devraient pouvoir se compléter l’une l’autre. Néanmoins, les chercheurs pointent un certain nombre de risques. D’une part la diffusion de l’IA dans la société peut creuser les inégalités entre ceux qui y auront accès et les autres. De même, les risques relatifs à la protection de la vie privée sont évident dans un environnement où les machines collecteront en permanence des données pour alimenter ces intelligences artificielles. Le smartphone est bien évidemment l’illustration la plus flagrante de cet état de fait qui va en s’amplifiant encore avec l’introduction d’assistants vocaux omniprésents et l’arrivée imminente de robots compagnons.

3 recommandations pour se préparer à la généralisation des IA

En conclusion de leur étude, les chercheurs livrent 3 recommandations. D’une part, ils estiment que les gouvernements et législateurs doivent monter en expertise sur le sujet de l’intelligence artificielle et bien comprendre les technologies et leurs conséquences avant de légiférer, interdire ou autoriser telle ou telle innovation dans ce domaine sans une bonne compréhension des enjeux. Les chercheurs estime qu’un effort doit être réalisé quant à l’analyse des IA, notamment celles qui ont une action directe sur le monde physique. Il faut pouvoir réaliser une rétro-ingénierie des systèmes propriétaires afin de bien comprendre leurs règles de fonctionnement afin que celles-ci puissent être débattues par les recherches, universitaires et journalistes afin qu’elles soient acceptées ou, le cas échéant, refusées par la société. On pense notamment au désormais célèbre dilemme macabre de la voiture autonome. Enfin, les chercheurs réclament plus de moyens (publics mais aussi privés) afin que des études interdisciplinaires puissent être lancées afin de mieux évaluer les implication sociétales de l’IA sur le monde de 2030.
Sources :

« One Hundred Year Study on Artificial Intelligence (AI100)« , Rapport 2016

« Stanford study concludes next generation of robots won’t try to kill us », DigitalTrends, 27 novembre 2016

 

 

Commentaires Facebook
Twitter Facebook Plusone Pinterest Linkedin
Ce contenu a été publié dans Intelligence artificielle, Robotique, avec comme mot(s)-clé(s) , . Vous pouvez le mettre en favoris avec ce permalien.