.

.

vendredi 1 juin 2018

Intelligence artificielle : empêcher l'apocalypse

Seth Baum / directeur exécutif de Global catastrophic risk institute

LE CERCLE/POINT DE VUE - La perspective que les machines gérées par l'IA vont surpasser l'intelligence des hommes, les contrôler et ensuite les éliminer inquiète de nombreux chercheurs. Que faut-il faire pour éviter un tel scénario catastrophe ?

Les dernières avancées de l'intelligence artificielle sont tout à fait saisissantes. L'IA transforme presque chaque secteur de la société : les transports,  la médecine ou encore  la défense. Ainsi il faut donc réfléchir à ce qu'il adviendra lorsque l'IA sera encore plus avancée qu'elle ne l'est déjà.

L'opinion apocalyptique consiste à dire que les machines gérées par l'IA vont surpasser l'humanité en intelligence, prendre le contrôle du monde et finir par tous nous tuer. Ce scénario est très vivace en science-fiction, bien qu'il soit assez facile à écarter, étant donné que les humains maintiennent un contrôle total sur l'intelligence artificielle. Mais de nombreux experts en matière d'IA prennent la perspective apocalyptique au sérieux, à juste titre. Le reste de la société devrait en faire de même.

Deux conceptions de l'IA

Pour comprendre ce qui est en jeu, il faut se souvenir de la distinction entre « l'IA au sens strict » et « l'intelligence artificielle générale » (IAG). L'IA au sens strict peut fonctionner seulement dans un ou dans quelques domaines à la fois : ainsi bien qu'elle puisse surpasser les humains dans certaines tâches choisies, elle reste sous contrôle humain.

L'IAG, en revanche, peut raisonner sur une large gamme de domaines et pourrait ainsi répliquer de nombreuses qualifications intellectuelles humaines, tout en maintenant tous les avantages des ordinateurs, notamment un parfait rappel de mémoire. Couplée à un matériel informatique sophistiqué, l'IAG pourrait dépasser la cognition humaine. En fait, il est difficile de concevoir une limite supérieure au niveau d'avancement que l'IAG pourrait atteindre.


En l'état actuel des choses, la plus grande partie de l'IA s'entend au sens strict. En effet, même les systèmes actuels les plus avancés ne disposent que de quantités limitées de généralité. Par exemple, alors que le système AlphaZero de Google DeepMind était capable de  maîtriser le jeu de go, les échecs et le shogi - ce qui en faisait alors le système le plus général par rapport à la plupart des autres systèmes d'IA, capables d'être appliqués seulement à une seule activité spécifique - il a toujours démontré des possibilités uniquement dans les confins limités de certains jeux de stratégie fortement structurés.

Un débat chez les spécialistes 

De nombreuses personnes bien informées écartent la perspective d'une IAG avancée. Certaines comme Selmer Bringsjord de l'Institut polytechnique de Rensselaer et Drew McDermott de l'université de Yale, arguent du fait qu'il est impossible pour l'IA de dépasser l'humanité en intelligence. D'autres comme Margaret A. Boden de l'université du Sussex et Oren Etzioni de l'Institut d'Allen pour l'intelligence artificielle, arguent du fait que l'IA de niveau humain peut être possible dans le futur, mais qu'il est bien trop tôt pour commencer à s'en inquiéter maintenant.

Ces sceptiques ne sont pas des figures marginales, comme les excentriques qui tentent de jeter le doute sur la science du changement climatique. Il s'agit ici d'éminents spécialistes de l'informatique théorique et des domaines apparentés - et leurs avis doivent être pris au sérieux.


Pourtant d'autres éminents spécialistes - notamment David J. Chalmers de l'université de New York, Allan Dafoe de l'université de Yale et Stuart Russell de l'université de Californie de Berkeley, Nick Bostrom de l'université d'Oxford et Roman Yampolskiy de l'université de Louisville - s'inquiètent que l'IAG puisse constituer une menace sérieuse voire existentielle envers l'humanité. Avec autant d'experts situés des deux côtés de l'alternative, nous devrions garder un esprit ouvert.

En outre, l'IAG mobilise une importante activité de recherche et développement. J'ai récemment terminé une enquête des projets de R & D en IAG, qui en reconnaît 45 dans 30 pays sur six continents. De nombreuses initiatives actives sont basées dans des sociétés majeures comme Baidu, Facebook, Google, Microsoft et Tencent, ainsi que dans des universités très bien classées comme Carnegie Mellon, Harvard et Stanford, ainsi qu'à l'Académie chinoise des sciences. Il serait imprudent simplement de supposer qu'aucun de ces projets ne va réussir.

Normes et de règles éthiques 

Une autre manière de penser à la menace potentielle de l'IAG consiste à la comparer à d'autres risques catastrophiques. Dans les années 1990, le Congrès américain a jugé bon de charger la Nasa de pister  les gros astéroïdes susceptibles de percuter la Terre, bien que la probabilité que cela se produise soit d'environ une chance sur 5.000 par siècle. Avec l'IAG, la probabilité d'une catastrophe au cours du siècle prochain pourrait être d'une sur cent, ou même d'une sur dix, à en juger par le rythme de la R & D et par la prégnance du souci des experts.

La question est alors de savoir ce que nous pouvons y faire. Tout d'abord, nous devons nous assurer que la R & D est conduite de manière responsable, sûre et éthique. Ceci va nécessiter un dialogue plus approfondi entre ceux qui travaillent dans le domaine de l'IA et des décisionnaires, les sociologues et les citoyens impliqués. Les personnes qui travaillent dans ce domaine connaissent la technologie et seront ceux qui vont la concevoir selon des normes agréées. Mais ils ne doivent pas décider seuls de ce que seront ces normes. De nombreuses personnes impliquées dans le développement d'applications d'IA n'ont pas l'habitude de penser aux implications sociales de leur travail. Pour que cela change, ils doivent bénéficier de perspectives extérieures.
Une grande partie du code est libre de droits, ce qui veut dire que le travail peut potentiellement être effectué depuis n'importe où.
Les décisionnaires devront également tenter de maîtriser les dimensions internationales de l'IAG. Actuellement, la plus grande partie de la R & D de l'IAG a lieu aux Etats-Unis, en Europe et en Chine, mais une grande partie du code est libre de droits, ce qui veut dire que le travail peut potentiellement être effectué depuis n'importe où. Ainsi l'établissement de normes et de règles éthiques fondamentales est finalement une tâche qui incombe à la communauté internationale tout entière, bien que les plates-formes de R & D risquent de prendre l'avantage dans ce domaine.
Dans une perspective d'avenir, quelques efforts pour faire face aux risques posés par l'IAG pourront venir se greffer sur des initiatives de politique déjà mises en place pour l'IA au sens strict, comme le nouveau comité bipartite Al Caucus lancé par John Delaney, un membre du Congrès démocrate du Maryland. Il existe de nombreuses opportunités de synergie entre ceux qui travaillent sur les risques à court terme de l'intelligence artificielle et ceux qui pensent à long terme.

Mais indépendamment du fait de savoir si l'IA au sens strict et l'IAG sont considérées ensemble ou séparément, ce qui importe le plus de notre point de vue, c'est que nous prenions des mesures constructives dès à présent, pour réduire au minimum le risque d'une catastrophe par la suite. Ce n'est pas une tâche que nous pouvons espérer accomplir à la dernière minute.

Cet article est publiée en collaboration avec Project Syndicate.
 
Seth Baum est le directeur exécutif de Global catastrophic risk institute