Seth Baum / directeur exécutif de Global catastrophic risk institute
LE CERCLE/POINT DE VUE - La perspective que les machines gérées par l'IA vont surpasser l'intelligence des hommes, les contrôler et ensuite les éliminer inquiète de nombreux chercheurs. Que faut-il faire pour éviter un tel scénario catastrophe ?
Les dernières avancées de l'intelligence artificielle sont tout à fait saisissantes. L'IA transforme presque chaque secteur de la société : les transports, la médecine ou encore la défense. Ainsi il faut donc réfléchir à ce qu'il adviendra lorsque l'IA sera encore plus avancée qu'elle ne l'est déjà.L'opinion apocalyptique consiste à dire que les machines gérées par l'IA vont surpasser l'humanité en intelligence, prendre le contrôle du monde et finir par tous nous tuer. Ce scénario est très vivace en science-fiction, bien qu'il soit assez facile à écarter, étant donné que les humains maintiennent un contrôle total sur l'intelligence artificielle. Mais de nombreux experts en matière d'IA prennent la perspective apocalyptique au sérieux, à juste titre. Le reste de la société devrait en faire de même.
Deux conceptions de l'IA
Pour
 comprendre ce qui est en jeu, il faut se souvenir de la distinction 
entre « l'IA au sens strict » et « l'intelligence artificielle 
générale » (IAG). L'IA au sens strict peut fonctionner seulement dans un
 ou dans quelques domaines à la fois : ainsi bien qu'elle puisse 
surpasser les humains dans certaines tâches choisies, elle reste sous 
contrôle humain.
L'IAG, en revanche, peut 
raisonner sur une large gamme de domaines et pourrait ainsi répliquer de
 nombreuses qualifications intellectuelles humaines, tout en maintenant 
tous les avantages des ordinateurs, notamment un parfait rappel de 
mémoire. Couplée à un matériel informatique sophistiqué, l'IAG pourrait 
dépasser la cognition humaine. En fait, il est difficile de concevoir 
une limite supérieure au niveau d'avancement que l'IAG pourrait atteindre.
En l'état actuel des choses, la plus grande 
partie de l'IA s'entend au sens strict. En effet, même les systèmes 
actuels les plus avancés ne disposent que de quantités limitées de 
généralité. Par exemple, alors que le système AlphaZero de Google 
DeepMind était capable de  maîtriser le jeu de go,
  les échecs et le shogi - ce qui en faisait alors le système le plus 
général par rapport à la plupart des autres systèmes d'IA, capables 
d'être appliqués seulement à une seule activité spécifique - il a 
toujours démontré des possibilités uniquement dans les confins limités 
de certains jeux de stratégie fortement structurés.
Un débat chez les spécialistes
De
 nombreuses personnes bien informées écartent la perspective d'une IAG 
avancée. Certaines comme Selmer Bringsjord de l'Institut polytechnique 
de Rensselaer et Drew McDermott de l'université de Yale, arguent du fait
 qu'il est impossible pour l'IA de dépasser l'humanité en intelligence. 
D'autres comme Margaret A. Boden de l'université du Sussex et Oren 
Etzioni de l'Institut d'Allen pour l'intelligence artificielle, arguent 
du fait que l'IA de niveau humain peut être possible dans le futur, mais
 qu'il est bien trop tôt pour commencer à s'en inquiéter maintenant.
Ces
 sceptiques ne sont pas des figures marginales, comme les excentriques 
qui tentent de jeter le doute sur la science du changement climatique. 
Il s'agit ici d'éminents spécialistes de l'informatique théorique et des
 domaines apparentés - et leurs avis doivent être pris au sérieux.
Pourtant d'autres éminents spécialistes - 
notamment David J. Chalmers de l'université de New York, Allan Dafoe de 
l'université de Yale et Stuart Russell de l'université de Californie de 
Berkeley, Nick Bostrom de l'université d'Oxford et Roman Yampolskiy de 
l'université de Louisville - s'inquiètent que l'IAG puisse constituer 
une menace sérieuse voire existentielle envers l'humanité. Avec autant 
d'experts situés des deux côtés de l'alternative, nous devrions garder 
un esprit ouvert.
En outre, l'IAG mobilise 
une importante activité de recherche et développement. J'ai récemment 
terminé une enquête des projets de R & D en IAG, qui en reconnaît 45
 dans 30 pays sur six continents. De nombreuses initiatives actives sont
 basées dans des sociétés majeures comme Baidu, Facebook,
 Google, Microsoft et Tencent, ainsi que dans des universités très bien 
classées comme Carnegie Mellon, Harvard et Stanford, ainsi qu'à 
l'Académie chinoise des sciences. Il serait imprudent simplement de 
supposer qu'aucun de ces projets ne va réussir.
Normes et de règles éthiques
Une
 autre manière de penser à la menace potentielle de l'IAG consiste à la 
comparer à d'autres risques catastrophiques. Dans les années 1990, le 
Congrès américain a jugé bon de charger la Nasa de pister 
les gros astéroïdes susceptibles de percuter la Terre,
  bien que la probabilité que cela se produise soit d'environ une chance
 sur 5.000 par siècle. Avec l'IAG, la probabilité d'une catastrophe au 
cours du siècle prochain pourrait être d'une sur cent, ou même d'une sur
 dix, à en juger par le rythme de la R & D et par la prégnance du 
souci des experts.
La question est alors de
 savoir ce que nous pouvons y faire. Tout d'abord, nous devons nous 
assurer que la R & D est conduite de manière responsable, sûre et 
éthique. Ceci va nécessiter un dialogue plus approfondi entre ceux qui 
travaillent dans le domaine de l'IA et des décisionnaires, les 
sociologues et les citoyens impliqués. Les personnes qui travaillent 
dans ce domaine connaissent la technologie et seront ceux qui vont la 
concevoir selon des normes agréées. Mais ils ne doivent pas décider 
seuls de ce que seront ces normes. De nombreuses personnes impliquées 
dans le développement d'applications d'IA n'ont pas l'habitude de penser
 aux implications sociales de leur travail. Pour que cela change, ils 
doivent bénéficier de perspectives extérieures.
Une grande partie du code est libre de droits, ce qui veut dire que le travail peut potentiellement être effectué depuis n'importe où.
Les
 décisionnaires devront également tenter de maîtriser les dimensions 
internationales de l'IAG. Actuellement, la plus grande partie de la R 
& D de l'IAG a lieu aux Etats-Unis, en Europe et en Chine, mais une 
grande partie du code est libre de droits, ce qui veut dire que le 
travail peut potentiellement être effectué depuis n'importe où. Ainsi 
l'établissement de normes et de règles éthiques fondamentales est 
finalement une tâche qui incombe à la communauté internationale tout 
entière, bien que les plates-formes de R & D risquent de prendre 
l'avantage dans ce domaine.
Dans une 
perspective d'avenir, quelques efforts pour faire face aux risques posés
 par l'IAG pourront venir se greffer sur des initiatives de politique 
déjà mises en place pour l'IA au sens strict, comme le nouveau comité 
bipartite Al Caucus lancé par John Delaney, un membre du Congrès 
démocrate du Maryland. Il existe de nombreuses opportunités de synergie 
entre ceux qui travaillent sur les risques à court terme de 
l'intelligence artificielle et ceux qui pensent à long terme.
Mais
 indépendamment du fait de savoir si l'IA au sens strict et l'IAG sont 
considérées ensemble ou séparément, ce qui importe le plus de notre 
point de vue, c'est que nous prenions des mesures constructives dès à 
présent, pour réduire au minimum le risque d'une catastrophe par la 
suite. Ce n'est pas une tâche que nous pouvons espérer accomplir à la 
dernière minute.
Cet article est publiée en collaboration avec Project Syndicate.
Seth Baum est le directeur exécutif de Global catastrophic risk institute