Se désinscrire

Communiqué de presse

Les Sommets sur l'IA doivent reprendre la sécurité au sérieux

Plus de 1500 personnes de plus de 14 pays ont signé une pétition et envoyé plus de 2000 e-mails appelant les délégués du Sommet sur l'impact de l'IA en Inde à faire de la sécurité de l'IA une priorité absolue.

« Nous appelons les délégués à traiter la sécurité de milliards de personnes comme une priorité politique. La mobilisation autour de la pétition montre une attente claire des citoyens pour que la sécurité redevienne au coeur des échanges. » explique Clémence Peyrot, Directrice de Pause IA

Le sommet, qui se tient du 16 au 20 février, réunit des participants de plus de 100 pays, dont des chefs de gouvernement, des ministres, des PDG des plus grandes entreprises d'IA et des centaines de personnalités éminentes du monde de l'IA. Il constitue une opportunité unique pour les décideurs politiques et les entreprises d'IA de s'accorder sur une feuille de route pour un développement sûr de l'IA.

« Le Sommet indien sur l’impact de l’IA est le plus grand rassemblement de décideurs politiques en matière d’IA de l'histoire et il arrive à un moment critique. À Bletchley en 2023, les dirigeants mondiaux ont reconnu les risques catastrophiques de l'IA. À Paris en 2025, ces engagements ont été discrètement abandonnés. Le Sommet indien représente une chance de corriger le tir — mais seulement si les délégués traitent la sécurité de milliards de personnes comme davantage qu'une note de bas de page à l'ordre du jour », a déclaré Maxime Fournes, Président de Pause IA.

Parmi les participants clés figurent le PDG de Google Sundar Pichai, le PDG de Nvidia Jensen Huang, le directeur de l'IA de Meta Alexandr Wang, le Secrétaire général des Nations Unies António Guterres, ainsi que le président français Emmanuel Macron.

Il existe un large consensus sur les dangers de l'IA, de la perte massive d'emplois et des perturbations économiques allant jusqu’à la perte de contrôle et l'extinction humaine. Le Rapport international sur la sécurité de l'IA, le document de consensus d'experts le plus complet à ce jour, confirme que les systèmes d'IA avancés présentent des risques allant de graves à catastrophiques.

La dynamique en faveur d’un développement sûr de l'IA s’est enrayée

Suite au premier Sommet sur la sécurité de l'IA à Bletchley, au Royaume-Uni, en 2023, les signataires de la déclaration de Bletchley se sont engagés à travailler ensemble pour garantir que l'IA reste sûre, mettant en garde contre le potentiel de l'IA de causer « des dommages graves, voire catastrophiques ».

Deux ans plus tard, lors du Sommet d'action sur l'IA à Paris (2025), la question de la sûreté du développement de l'IA a été négligée. Le professeur Max Tegmark du MIT a déclaré : « On avait presque l'impression qu'ils essayaient de défaire Bletchley », qualifiant l'omission de la sécurité dans la déclaration de « recette pour le désastre ».

« Nous ne sommes pas les seuls à mettre en garde contre des perturbations généralisées et potentiellement, l'extinction de l'humanité. Les organisateurs du sommet et les délégués doivent prendre ces préoccupations au sérieux et agir. Nous devons voir émerger un leadership sur cette question avant qu'il ne soit trop tard » a déclaré Maxime Fournes.

Il existe un large consensus : l'IA menace l'humanité

Les risques posés par des systèmes d'IA avancés ne sont pas spéculatifs. Ils sont reconnus par des figures majeures de la communauté scientifique.

Les systèmes d'IA causent déjà des dommages importants — de la désinformation massive aux licenciements de travailleurs dans différents secteurs. Et les systèmes d'IA ne vont cesser de devenir plus puissants et plus intégrés dans l'économie, les entreprises de pointe en IA se livrant à une course pour créer des systèmes toujours plus puissants.

Geoffrey Hinton et Yoshua Bengio, tous deux lauréats du prix Nobel et pionniers de l'IA moderne, ont averti à plusieurs reprises qu'une IA superintelligente pourrait constituer une menace existentielle pour l'humanité.

Des centaines de chercheurs et de dirigeants de premier plan — y compris les PDG d'OpenAI et de Google DeepMind — ont déclaré que « limiter les risques d’extinction [de l’humanité] posés par l’intelligence artificielle devrait être une priorité mondiale, aux côtés d’autres risques de grande ampleur comme les pandémies ou la guerre nucléaire. »

Douze lauréats du prix Nobel ainsi que des centaines d'experts ont demandé aux États de parvenir à un accord international pour établir des lignes rouges pour l'IA, avec une application rigoureuse, d'ici fin 2026.

Il ne s’agit pas d’une préoccupation marginale. C'est la position scientifique dominante, et c’est la raison pour laquelle elle doit être abordée au Sommet indien sur l'impact de l'IA.

Nous devons mettre en pause le développement de l'IA

Si de tels systèmes sont développés avant que nous ne comprenions comment les rendre sûrs, les conséquences seront irréversibles.

C'est pourquoi Pause IA appelle à une pause temporaire de l'entraînement des systèmes d'IA à usage général, jusqu'à ce que :

  • Nous disposions de méthodes robustes et vérifiées pour garantir que ces systèmes restent sous contrôle humain
  • Leur développement soit soumis à une supervision démocratique et à un accord international
  • Les impacts économiques et sociaux de l'IA existante soient correctement compris et gérés

Ce n'est pas un appel à arrêter tout développement de l'IA. C'est un appel à arrêter la course imprudente vers des systèmes dont les créateurs eux-mêmes admettent qu'ils présentent des dangers catastrophiques.

Pause IA et les 1500 signataires de la pétition exigent que les préoccupations de centaines d'experts, chercheurs et dirigeants soient prises au sérieux. Les organisateurs du sommet et les délégués qui y assistent ont le devoir de veiller à ce que ce sujet occupe le devant de la scène. L'histoire les jugera sur le fait qu'ils l'aient fait ou non.

À propos de Pause IA

Pause IA est une association de bénévoles qui alerte les citoyen•nes et les pouvoirs publics français sur les graves dangers que la course à l'intelligence artificielle fait courir à la société humaine, et promeut des actions concrètes à tous les niveaux de décision.

Pause IA est la représentation en France de Pause AI Global, qui demande un moratoire sur l'entraînement des systèmes d'IA générale (IAG) jusqu'à ce que toutes les conditions de sécurité et de contrôle démocratique soient réunies.

Contact Presse :

Maxime Fournes

Co-fondateur de Pause IA

Email : presse@pauseia.fr

Tél. : 07 43 15 56 17