Plus de 5.000 chercheurs s’alarment sur les développements de l’intelligence artificielle

IALa lettre ouverture mise en ligne par The Future of Life Institute (FLI) connait un succès sans précédent auprès des chercheurs. Plus de 5.000 ont déjà signé cette lettre qui souligne les dangers engendrés par l’accélération des recherches en intelligence artificielle. La démarche pourrait sembler anecdotique si ce n’est le profil des signataires. Toutes les entreprises leaders de l’intelligence artificielle ont répondu présentes à l’appel : Google, Facebook, DeepMind, Vicarious, IBM. Les plus prestigieuses universités comme le MIT, Harvard, Yale, Berkeley, se sont joints à elles, ainsi que quelques figures emblématiques comme Elon Musk et Stephen Hawking qui avaient été les premiers à souligner les dangers de cet emballement de la recherche sur l’intelligence artificielle.

Une initiative pour détourner la recherche du « côté obscur » de l’intelligence artificielle

Le soutien de la communauté scientifique semble donc massif pour l’initiative du FLI, le « Future of Life Institute » créé par Jaan Tallinn, le co-fondateur de Skype, avec des chercheurs du MIT, d’Harvard, l’Université de Santa Cruz et de l’Université de Boston. Cet institue a pour vocation de stimuler la recherche et les initiatives visant à protéger la vie, pour reprendre la terminologie officielle, et développer une vision optimiste du futur. Elon Musk a récemment versé 10 millions de dollars à l’institut pour financer des programmes de recherche allant dans ce sens. Dans son conseil scientifique, une dizaine  de sommités scientifique, Elon Musk et Stephen Hawking ainsi que les acteur Alan Alda et Morgan Freeman, bien connu aux Etats-Unis pour commenter diverses émissions TV de vulgarisation scientifique.

Elon-Musk

Membre très actif du FLI, Elon Musk a créé un fond de 10 M$ pour financer les recherches dans une IA qui sera un bénéfice pour l’humanité.

La premier priorité du FLI porte sur l’étude de l’impact économique de l’intelligence artificielle. Quels seront les marchés qui vont être le plus fortement bousculés par les agents intelligents ? Marchés financiers, assurances, industries, le marché du travail va sans nul doute connaitre de fortes perturbations du fait de l’automatisation de bon nombre de nouvelles tâches. De même, au niveau des gouvernements, les prises de décision vont être de plus en plus influencées par les données et peut-être même un jour prises via des agents. Comment vont évoluer nos sociétés dans une économie s’appuyant sur des agents logiciels ?

Un second axe de recherche porte sur les implications légales et éthiques de cette montée en puissance de l’intelligence artificielle dans notre quotidien. Quelles lois pour les véhicules autonomes, quelle réglementation internationale sur les armes autonomes, comment protéger notre vie privée face aux agents logiciels ? Autant de questions auxquelles il devient urgent de répondre car ce qui n’étaient encore que des thèmes de recherche il y a quelques années est en train de se matérialiser aujourd’hui.

Enfin, l’action du FLI va se porter sur le plan de la recherche. Outre le financement de recherches dans une intelligence artificielle qui améliorera le sort de l’humanité, le FLI va aussi étudier divers moyens pour rendre l’intelligence artificielle plus sûre pour les humains. Les chercheurs vont travailler sur les moyens de vérifier le comportement des IA avant que celles-ci n’équipent des voitures, des drones ou soient lancées sur les marchés financiers, les moyens aussi de les valider, les certifier afin de garantir notre sécurité.

Un scénario à la Skynet n’est pas une fatalité et le FLI va s’employer à ce que l’intelligence artificielle ne retourne pas un jour contre son créateur.

Source : « Research priorities for robust and beneficial artificial intelligence », Communiqué du Future of life Institute, 23 janvier 2015

Commentaires Facebook
Twitter Facebook Plusone Pinterest Linkedin
Ce contenu a été publié dans Développement, avec comme mot(s)-clé(s) , . Vous pouvez le mettre en favoris avec ce permalien.