Seth Baum / directeur exécutif de Global catastrophic risk institute
LE CERCLE/POINT DE VUE - La perspective que les machines gérées par l'IA vont surpasser l'intelligence des hommes, les contrôler et ensuite les éliminer inquiète de nombreux chercheurs. Que faut-il faire pour éviter un tel scénario catastrophe ?
Les dernières avancées de l'intelligence artificielle sont tout à fait saisissantes. L'IA transforme presque chaque secteur de la société : les transports, la médecine ou encore la défense. Ainsi il faut donc réfléchir à ce qu'il adviendra lorsque l'IA sera encore plus avancée qu'elle ne l'est déjà.L'opinion apocalyptique consiste à dire que les machines gérées par l'IA vont surpasser l'humanité en intelligence, prendre le contrôle du monde et finir par tous nous tuer. Ce scénario est très vivace en science-fiction, bien qu'il soit assez facile à écarter, étant donné que les humains maintiennent un contrôle total sur l'intelligence artificielle. Mais de nombreux experts en matière d'IA prennent la perspective apocalyptique au sérieux, à juste titre. Le reste de la société devrait en faire de même.
Deux conceptions de l'IA
Pour
comprendre ce qui est en jeu, il faut se souvenir de la distinction
entre « l'IA au sens strict » et « l'intelligence artificielle
générale » (IAG). L'IA au sens strict peut fonctionner seulement dans un
ou dans quelques domaines à la fois : ainsi bien qu'elle puisse
surpasser les humains dans certaines tâches choisies, elle reste sous
contrôle humain.
L'IAG, en revanche, peut
raisonner sur une large gamme de domaines et pourrait ainsi répliquer de
nombreuses qualifications intellectuelles humaines, tout en maintenant
tous les avantages des ordinateurs, notamment un parfait rappel de
mémoire. Couplée à un matériel informatique sophistiqué, l'IAG pourrait
dépasser la cognition humaine. En fait, il est difficile de concevoir
une limite supérieure au niveau d'avancement que l'IAG pourrait atteindre.
En l'état actuel des choses, la plus grande
partie de l'IA s'entend au sens strict. En effet, même les systèmes
actuels les plus avancés ne disposent que de quantités limitées de
généralité. Par exemple, alors que le système AlphaZero de Google
DeepMind était capable de maîtriser le jeu de go,
les échecs et le shogi - ce qui en faisait alors le système le plus
général par rapport à la plupart des autres systèmes d'IA, capables
d'être appliqués seulement à une seule activité spécifique - il a
toujours démontré des possibilités uniquement dans les confins limités
de certains jeux de stratégie fortement structurés.
Un débat chez les spécialistes
De
nombreuses personnes bien informées écartent la perspective d'une IAG
avancée. Certaines comme Selmer Bringsjord de l'Institut polytechnique
de Rensselaer et Drew McDermott de l'université de Yale, arguent du fait
qu'il est impossible pour l'IA de dépasser l'humanité en intelligence.
D'autres comme Margaret A. Boden de l'université du Sussex et Oren
Etzioni de l'Institut d'Allen pour l'intelligence artificielle, arguent
du fait que l'IA de niveau humain peut être possible dans le futur, mais
qu'il est bien trop tôt pour commencer à s'en inquiéter maintenant.
Ces
sceptiques ne sont pas des figures marginales, comme les excentriques
qui tentent de jeter le doute sur la science du changement climatique.
Il s'agit ici d'éminents spécialistes de l'informatique théorique et des
domaines apparentés - et leurs avis doivent être pris au sérieux.
Pourtant d'autres éminents spécialistes -
notamment David J. Chalmers de l'université de New York, Allan Dafoe de
l'université de Yale et Stuart Russell de l'université de Californie de
Berkeley, Nick Bostrom de l'université d'Oxford et Roman Yampolskiy de
l'université de Louisville - s'inquiètent que l'IAG puisse constituer
une menace sérieuse voire existentielle envers l'humanité. Avec autant
d'experts situés des deux côtés de l'alternative, nous devrions garder
un esprit ouvert.
En outre, l'IAG mobilise
une importante activité de recherche et développement. J'ai récemment
terminé une enquête des projets de R & D en IAG, qui en reconnaît 45
dans 30 pays sur six continents. De nombreuses initiatives actives sont
basées dans des sociétés majeures comme Baidu, Facebook,
Google, Microsoft et Tencent, ainsi que dans des universités très bien
classées comme Carnegie Mellon, Harvard et Stanford, ainsi qu'à
l'Académie chinoise des sciences. Il serait imprudent simplement de
supposer qu'aucun de ces projets ne va réussir.
Normes et de règles éthiques
Une
autre manière de penser à la menace potentielle de l'IAG consiste à la
comparer à d'autres risques catastrophiques. Dans les années 1990, le
Congrès américain a jugé bon de charger la Nasa de pister
les gros astéroïdes susceptibles de percuter la Terre,
bien que la probabilité que cela se produise soit d'environ une chance
sur 5.000 par siècle. Avec l'IAG, la probabilité d'une catastrophe au
cours du siècle prochain pourrait être d'une sur cent, ou même d'une sur
dix, à en juger par le rythme de la R & D et par la prégnance du
souci des experts.
La question est alors de
savoir ce que nous pouvons y faire. Tout d'abord, nous devons nous
assurer que la R & D est conduite de manière responsable, sûre et
éthique. Ceci va nécessiter un dialogue plus approfondi entre ceux qui
travaillent dans le domaine de l'IA et des décisionnaires, les
sociologues et les citoyens impliqués. Les personnes qui travaillent
dans ce domaine connaissent la technologie et seront ceux qui vont la
concevoir selon des normes agréées. Mais ils ne doivent pas décider
seuls de ce que seront ces normes. De nombreuses personnes impliquées
dans le développement d'applications d'IA n'ont pas l'habitude de penser
aux implications sociales de leur travail. Pour que cela change, ils
doivent bénéficier de perspectives extérieures.
Une grande partie du code est libre de droits, ce qui veut dire que le travail peut potentiellement être effectué depuis n'importe où.
Les
décisionnaires devront également tenter de maîtriser les dimensions
internationales de l'IAG. Actuellement, la plus grande partie de la R
& D de l'IAG a lieu aux Etats-Unis, en Europe et en Chine, mais une
grande partie du code est libre de droits, ce qui veut dire que le
travail peut potentiellement être effectué depuis n'importe où. Ainsi
l'établissement de normes et de règles éthiques fondamentales est
finalement une tâche qui incombe à la communauté internationale tout
entière, bien que les plates-formes de R & D risquent de prendre
l'avantage dans ce domaine.
Dans une
perspective d'avenir, quelques efforts pour faire face aux risques posés
par l'IAG pourront venir se greffer sur des initiatives de politique
déjà mises en place pour l'IA au sens strict, comme le nouveau comité
bipartite Al Caucus lancé par John Delaney, un membre du Congrès
démocrate du Maryland. Il existe de nombreuses opportunités de synergie
entre ceux qui travaillent sur les risques à court terme de
l'intelligence artificielle et ceux qui pensent à long terme.
Mais
indépendamment du fait de savoir si l'IA au sens strict et l'IAG sont
considérées ensemble ou séparément, ce qui importe le plus de notre
point de vue, c'est que nous prenions des mesures constructives dès à
présent, pour réduire au minimum le risque d'une catastrophe par la
suite. Ce n'est pas une tâche que nous pouvons espérer accomplir à la
dernière minute.
Cet article est publiée en collaboration avec Project Syndicate.
Seth Baum est le directeur exécutif de Global catastrophic risk institute