Se désinscrire
Lire dans le navigateur
Les parlementaires européens reconnaissent les risques catastrophiques de l'intelligence artificielle

« Nous sommes sur une trajectoire menant à une perte de contrôle », a insisté Stuart Russell, professeur d'informatique à l'UC Berkeley et auteur du manuel de référence utilisé pour former quasiment tous les chercheurs en intelligence artificielle (IA) dans le monde. Il s'exprimait à cette occasion, lors d’un discours devant des membres du Parlement européen, lundi à Bruxelles, sur la course à la construction de systèmes d’IA superintelligentes.

« Cela pourrait être considéré comme l'une des plus graves faillites éthiques de l'histoire d’un gouvernement », a-t-il déclaré.

L’eurodéputé Ondřej Kolář a affirmé : « L'IA est un excellent outil. Elle peut nous aider à concevoir de nouveaux médicaments, à innover et faire avancer la recherche. Mais elle peut aussi causer des torts importants. Si nous ne régulons pas le rythme de son développement, des catastrophes pourraient survenir. »

Lors de cette réunion, le directeur exécutif de PauseAI, Maxime Fournes, a appelé les eurodéputés à soutenir une pause dans le développement de la superintelligence. « Nous sommes ici parce que nous estimons que la course actuelle à la construction de systèmes d'IA toujours plus puissants, sans gardes-fous suffisants, fait courir un risque inacceptable », a-t-il déclaré.

Stuart Russell a expliqué : « Nous avons déjà vu des systèmes d'IA prêts à mentir, à faire du chantage, et mêmes à lancer des armes nucléaires pour préserver leur existence. Si les entreprises d'IA parviennent à construire une superintelligence, la plupart des experts estiment que la probabilité d'extinction de l'humanité se situerait entre 10 et 50 % : cela revient à jouer à
la roulette russe avec toute la planète. Et pourtant, nous laissons faire. »

À titre de comparaison, la probabilité de fusion du coeur d’un réacteur nucléaire est inférieur à 1 sur 100 000 par réacteur et par an.

« Ce n'est pas une opinion qui est marginale : huit des dix meilleurs chercheurs en IA sont convaincus que la création d'une intelligence artificielle générale (IAG) conduira à une perte de contrôle », a-t-il affirmé.

Le lauréat du prix Nobel Geoffrey Hinton est l'un des nombreux experts en IA à avoir averti que la superintelligence pourrait représenter une menace existentielle pour l'humanité. Le Rapport international sur la sécurité de l'IA, publié plus tôt ce mois-ci, confirme que les systèmes d'IA avancés présentent des risques allant de graves à catastrophiques. Les PDG des plus grandes
entreprises du secteur — dont OpenAI et Google DeepMind — ont eux aussi récemment évoqué les risques catastrophiques liés aux systèmes d'IA avancés.

Les eurodéputés reconnaissent les risques

Fournes a indiqué « aujourd'hui, la plupart des chercheurs dans les laboratoires d'IA de pointe estiment que dans deux à cinq ans, nous disposerons d'une IAG : des systèmes capables de tout ce qu'un être humain peut accomplir intellectuellement. Non pas juste répondre à des questions, mais également mener des recherches scientifiques, écrire des logiciels, diriger des entreprises, développer de nouvelles technologies — et notamment concevoir de meilleurs systèmes d'IA. »

Il a reconnu que la loi européenne sur l'IA constituait une avancée législative importante, mais aussi qu'elle « n'a pas été conçue pour faire face au risque existentiel que représente la course à la superintelligence artificielle. »

S'adressant à Fournes, l’eurodéputé Kolář a déclaré : « Merci de partager ces inquiétudes, qui sont aussi les miennes. L'IA est un excellent serviteur, mais un terrible maître. »

L'eurodéputée Saskia Bricmont a affirmé : « L'alarme vient des PDG eux-mêmes ; travaillons avec eux pour élaborer un cadre. Le momentum politique va dans le sens d’un moratoire sur le développement de l'IA. »

L'eurodéputé Brando Benifei a lui réitéré qu'une perte de contrôle constituait une menace réelle: « Nous devons prendre ce risque au sérieux. »

L’influence de l'Union européenne

Lors du récent Sommet sur l'impact de l'IA en Inde, le conseiller de la Maison Blanche aux sciences et technologies, Michael Kratsios, a déclaré: « Nous rejetons totalement toute gouvernance mondiale de l'IA. » Bien que les États-Unis soient considérés comme l'une des superpuissances en matière d'IA — et qu'ils soient incontournables dans tout mécanisme de régulation — Fournes a insisté sur le fait que l'Union européenne a un rôle singulier à jouer dans la gouvernance mondiale.

Il a rappelé à l'assemblée « que l'Accord de Paris sur le climat a été conclu malgré des années de résistance américaine. Le RGPD a redéfini les pratiques mondiales en matière de données sans la participation des États-Unis. La tendance est claire : lorsqu'une masse critique de nations construit un cadre crédible, celui-ci exerce une force d'attraction que même les puissances
récalcitrantes ne peuvent ignorer indéfiniment. Les administrations américaines changent. Le cadre doit être prêt le moment venu. »

« L'UE dispose également d'un levier concret : les puces avancées nécessaires à l'entraînement des systèmes d'IA de pointe dépendent de machines de lithographie produites par ASML aux Pays-Bas, qui utilisent des optiques de précision fabriquées par Carl Zeiss en Allemagne. Cette technologie européenne se trouve au cœur même de la chaîne d'approvisionnement mondiale de l'IA. C'est un levier que nous n'avons pas besoin de créer — il existe déjà », a-t-il ajouté.

Le vice-président du Parlement européen, Victor Negrescu, a convenu que l'UE pourrait jouer un rôle décisif : « Nous avons besoin d'une approche mondiale de l'IA, mais nous pouvons tout de même peser sur les structures de gouvernance. »

Pertes d'emplois et armes autonomes : les eurodéputés tirent la sonnette d'alarme

Les discussions ont également porté sur d'autres risques liés à l'IA : perte de contrôle démocratique, montée des inégalités, développement des armes autonomes et bouleversements du marché du travail.

« Le Fonds monétaire international (FMI) prédit que 60 % des emplois dans les économies avancées seront remplacés par l'IA », a souligné Benifei.

Risto Uuk, responsable des politiques et de la recherche européennes au Future of life institue, a expliqué que l'IA affecte déjà le marché du travail. Lors d'un récent atelier organisé par une grande entreprise d’IA, un porte-parole a indiqué qu'ils n'embaucheraient plus jamais de personnel débutant.

« Dans quatre ans », a déclaré Uuk, « les compétences managériales ne seront plus nécessaires. Peut-être ne devrions-nous pas créer ce risque dès le départ. »

Quant aux armes autonomes pilotées par l'IA, Russell a été sans détour : « Des armes entièrement autonomes signifient qu'en appuyant sur un bouton, on peut tuer un million de personnes. Nous nous dirigeons très rapidement vers cette situation. »

Du parlement au soutien citoyen

À l'issue de la réunion, une centaine de manifestants se sont rassemblés devant le Parlement européen à Bruxelles pour appeler les décideurs politiques à agir.

Le samedi 28 février, PauseAI organisera à Londres, aux côtés de Pull the Plug, ce qui sera sa plus grande manifestation à ce jour, avec plus de 100 participants attendus. Le directeur de PauseAI UK, Joseph Miller, appelle toute personne préoccupée par les dangers de l'IA à les rejoindre : « Il est important que nous interpellions directement les décideurs politiques, mais nous devons aussi démontrer que le grand public est conscient de l'urgence de la situation et qu'il exige des mesures concrètes de la part des gouvernements. »

Crédit photo : Jeroen Willems

 
À propos de

Pause IA est une association de bénévoles qui alerte les citoyen•nes et les pouvoirs publics français sur les graves dangers que la course à l'intelligence artificielle fait courir à la société humaine, et promeut des actions concrètes à tous les niveaux de décision.

Pause IA est la représentation en France de Pause AI Global, qui demande un moratoire sur l'entraînement des systèmes d'IA générale (IAG) jusqu'à ce que toutes les conditions de sécurité et de contrôle démocratique soient réunies.

Contact Presse :

Clémence Peyrot

Directrice de Pause IA

Email : presse@pauseia.fr

Tél. : 06.45.51.34.15