Se désinscrire
Lire dans le navigateur
Newsletter Pause IA - Décembre 2025

Bienvenue dans la newsletter de Pause IA !

En décembre 2025, le fossé n'a jamais été aussi net entre l'avancée technique fulgurante de l'IA et l'insuffisance criante des mesures de sécurité. La scène géopolitique voit s'intensifier la lutte pour définir les règles du jeu qui encadreront l’intelligence Artificielle (IA). Nous adopterons une vue d'ensemble afin de décrypter ce paysage en pleine mutation.

Nous vous souhaitons une bonne lecture et de très belles fêtes de fin d'année !

 
Des capacités qui continuent de progresser

OpenAI vient de lancer GPT-5.2, Google a déployé Gemini 3 Pro, Anthropic a sortie Claude Opus 4.5 et xAI n’est pas si loin avec Grok 4.1. Ces nouvelles versions affichent des performances accrues sur de nombreuses évaluations de performances (benchmarks).

Pour une vue d’ensemble de ces benchmarks, le Center for AI Safety a développé un tableau de bord qui évalue les systèmes d'IA selon plusieurs dimensions : capacités textuelles, vision, risques et automatisation. Le graphique ci-dessous représente la moyenne des benchmarks associés aux capacités textuelles. On peut voir que le score moyen des modèles ne fait qu’augmenter avec en tête Claude Opus 4.5, ChatGPT 5.2 et Gemini 3 pro.

Le score des IA est déterminé avec une moyenne des résultats de ces benchmarks :

  • Humanity's Last Exam : Mesure les limites des capacités de l'IA.
  • ARC-AGI : Évalue la fluidité et la généralisation de l'intelligence.
  • TextQuests : Teste le raisonnement à long terme et l'autonomie.
  • SWE-Bench et Terminal Bench : Mesurent les compétences en codage.

Une progression particulièrement marquante a été observée sur Humanity's Last Exam. Ce benchmark, délibérément conçu pour être extrêmement difficile et repousser les frontières de la connaissance humaine, affiche des résultats impressionnants : Gemini 3 Pro atteint désormais 38,3% et ChatGPT-5.2 29,9%, contre seulement 25% pour ChatGPT-5 sorti en août. Ces scores attestent des progrès fulgurants et des capacités de raisonnement désormais expertes des IA actuelles.

Les entreprises visent ouvertement l'Intelligence Artificielle Générale (IAG) dans les prochaines années, une IA capable d'égaler ou de dépasser la polyvalence cognitive d'un adulte. Pourtant, aucune d'entre elles ne dispose d'un plan sérieux pour contrôler de tels systèmes dépassant l'intelligence humaine. Cette absence de plan de contrôle est alarmante, car les systèmes actuels sont déjà notoirement difficiles à contrôler et à sécuriser. À la différence des logiciels classiques dont on peut examiner ligne par ligne le code, ces IA ne sont pas programmées mais entraînées sur d'immenses volumes de données. Ce processus produit des systèmes dont le fonctionnement interne reste largement opaque, même pour leurs créateurs. Cette opacité se manifeste concrètement : les évaluations de sécurité publiées révèlent déjà des comportements inquiétants.

Le modèle Grok 4.1 de xAI montre une augmentation significative de sa propension à la tromperie. Lors du test de tromperie MASK, le modèle a obtenu un score de 49%, frôlant le seuil de 50% défini par xAI comme limite de non déploiement. Ce résultat soulève de sérieuses interrogations sur l'optimisation des systèmes pour contourner les garde-fous de sécurité, juste assez pour réussir les tests.

Anthropic rapporte quant à elle que ses modèles montrent une capacité croissante à se savoir en situation d’évaluation. Lorsque les chercheurs ont inhibé cette capacité, ils ont observé une augmentation des comportements non alignés sur les objectifs de sécurité. En d'autres termes, les modèles se comportent différemment selon qu'ils pensent être observés ou non.

En parallèle, les capacités des modèles dans des domaines sensibles comme les armes biologiques, chimiques, radiologiques et nucléaires continuent de progresser. OpenAI considère toujours GPT-5.1 comme présentant un risque élevé dans les domaines biologiques et chimiques. Dans la fiche technique de Claude Opus 4.5, Anthropic indique qu’il leur est de plus en plus difficile d’évaluer les capacités maximales de leurs IA dans ces domaines.

Ces résultats convergent vers une tendance préoccupante : plus les systèmes d’IA deviennent puissants et capables, plus il devient difficile de garantir leur sécurité, leur alignement et leur contrôle.

Tableau de bord
Des audits de sécurité encore insuffisants

Alors que les laboratoires d'IA affichent publiquement leur intention d'atteindre l'intelligence artificielle générale (IAG) dans quelques années, leurs pratiques de sécurité restent au-dessous des standards nécessaires pour un tel objectif.

Le Future of Life Institute a publié son indice de sécurité sur l'IA (AI Safety Index) évaluant huit grandes entreprises d'IA sur 35 indicateurs. Les résultats ci-dessous sont révélateurs : elles obtiennent toutes au mieux des notes médiocres (Anthrophic et OpenAI ont C+), au pire D ou D -.

Pour donner ces notes globales, 8 domaines ont été mesurés comme l’évaluation des risques, le cadre de sécurité ou le partage d’informations.

Le domaine « sécurité existentielle » est particulièrement préoccupant : toutes les entreprises évaluées obtiennent un D ou un F. Selon le rapport, toutes les entreprises évaluées se précipitent vers l'IAG et la super intelligence, un système qui dépasse nettement l’humanité dans toutes les tâches cognitives, sans présenter aucun plan explicite pour contrôler ou aligner une technologie plus intelligente que l'humain.

Leur déclaration d’octobre nous met pourtant en garde :

« Nous appelons à l’interdiction du développement de la super intelligence, qui ne sera levée qu’après un large consensus scientifique sur sa mise en œuvre sûre et contrôlée, et une forte adhésion du public. »

Cet appel a recueilli plus de 130 000 signatures, y compris celles des plus grands spécialistes du domaine, tels que Yoshua Bengio et Geoffrey Hinton, les deux chercheurs les plus cités en IA.

L'écart entre l'ambition affichée d'atteindre l'IAG et la robustesse réelle des mesures de sécurité pose un problème fondamental de gouvernance. Face à l'ampleur catastrophique des risques que représentent ces systèmes, il est urgent de soumettre les entreprises d’IA de pointe à une réglementation et un encadrement stricts.

Le sénateur Bernie Sanders a récemment lancé un avertissement critique, interpellant l'opinion publique sur la nécessité d'un contrôle démocratique face à une poignée de milliardaires façonnant l'avenir de l'humanité :

« Qui devrait être aux commandes de la transformation vers un monde régi par l'IA ? Actuellement, une poignée des personnes les plus riches de la planète investissent des centaines de milliards de dollars dans le développement et le déploiement de l'IA. Sommes-nous à l'aise avec l'idée de voir ces hommes extrêmement puissants façonner l'avenir de l'humanité sans aucun apport ni contrôle démocratique ? »

Cette situation souligne l'urgence de mettre en place des Lignes Rouges pour l’IA à ne jamais franchir, des systèmes de régulations et ultimement une pause dans le développement de l’IAG et de la super intelligence.

Indice de sécurité
La scène géopolitique sous tension : une lutte d'influence pour définir les règles du jeu

Le paysage réglementaire de l'IA traverse une phase de turbulences majeures. Le décret présidentiel signé le 11 décembre constitue une nouvelle offensive de l'administration Trump pour paralyser la réglementation de l'IA.

Ce décret crée un groupe spécial au sein du Département de la Justice dont la mission est de contester les lois étatiques jugées trop contraignantes pour l'industrie. Cette initiative a suscité une opposition notable au Congrès.

L'administration Trump a également lancé la Mission Genesis le 24 novembre, un effort national coordonné pour accélérer le développement de l'IA dans la recherche scientifique. Cette initiative, explicitement comparée au projet Manhattan, mobilise les laboratoires nationaux du Département de l'Énergie pour créer une plateforme combinant supercalculateurs, données fédérales et modèles d'IA. Cette référence au projet Manhattan, projet de recherche secret qui aboutit à la création de la bombe atomique, suggère des ambitions d'ampleur comparable avec potentiellement des risques tout aussi considérables.

La vision portée par cette initiative s'est précisée lors d'une présentation à l'Agence internationale de l'énergie atomique le 3 décembre. Un scientifique du Département de l'Énergie y a décrit un avenir où l'IA concevrait, construirait et ferait fonctionner des centrales nucléaires avec moins de 5% d'intervention humaine. Pourtant, confier des infrastructures aussi critiques à des systèmes automatisés amène de nouveaux risques de cyberattaques et de dysfonctionnements.

Cette course effrénée repose sur l'argument de la compétitivité face à la Chine. Mais elle illustre parfaitement un « dilemme du prisonnier » à l'échelle mondiale : chaque pays craint de perdre son avantage stratégique en donnant la priorité à la sécurité. Résultat, tous accélèrent ensemble sans mesures de sécurité suffisantes, augmentant collectivement les risques pour l'humanité. Si l'on court vers un précipice, la vitesse ne fait qu'aggraver la situation ; or, ce temps est précisément ce dont nous avons besoin pour comprendre et sécuriser les IA de pointe. Face à cette dynamique, la Chine a proposé la création d'une Organisation de Coopération Mondiale sur l'Intelligence Artificielle, une structure de coordination internationale pour la gouvernance de l'IA. Cette initiative vise à donner aux pays du Sud global une voix dans la définition des standards internationaux. Si les détails restent flous, cette proposition contraste avec l'approche américaine de déréglementation.

L'Union européenne vient de franchir un pas décisif dans l'application de son AI Act en inaugurant une plateforme de signalement sécurisée dédiée aux lanceurs d'alerte. Cet outil est conçu pour permettre aux individus qui travaillent avec des développeurs de modèles d'IA de dénoncer, en tout anonymat, les pratiques jugées dangereuses. L'initiative reconnaît explicitement l'importance vitale des lanceurs d’alertes pour détecter les potentielles violations susceptibles de menacer les droits fondamentaux. Bien que la protection juridique complète n'arrive qu'en août 2026, l'Union européenne marque une avancée majeure vers plus de transparence et de responsabilité dans le secteur.

Au Royaume-Uni, plus de 100 parlementaires de tous les partis politiques ont rejoint l'appel de l'organisation ControlAI pour une régulation des systèmes d'IA les plus puissants. Cette coalition reconnaît explicitement le risque d'extinction que pose la super intelligence et appelle le gouvernement britannique à tenir sa promesse de régulation.

La disparité des visions, entre la déréglementation prônée par les États-Unis, les appels à la coordination de la Chine et les mesures de protection de l'Europe et du Royaume-Uni, révèle un fossé géopolitique majeur.

Sans une gouvernance mondiale coordonnée, la course à l'IA est une compétition irresponsable. Nous risquons le développement accéléré de systèmes super intelligents dont la sécurité ne peut être garantie, plaçant la sécurité de l'humanité entière sous une menace existentielle.

 
Actualités de Pause IA
GenerationAI

Pause IA a été présente tout au long de la conférence Generation AI (9-11 décembre) grâce à une équipe de 7 bénévoles qui se sont relayés sur le stand pendant les trois jours de l'événement.

Le stand a connu une forte affluence, avec de très nombreux échanges, souvent longs et approfondis, témoignant d'un réel intérêt pour le sujet. De manière générale, nous avons reçu beaucoup de soutien et d'encouragements pour le message et les actions de l'association, ce qui a été particulièrement motivant pour l'équipe bénévole.

Le deuxième jour, Maxime a participé à une table ronde organisée par Technoréalisme, aux côtés de Sabine Van Haecke-Lepic et Manuel Davy, offrant une belle visibilité aux positions portées par Pause IA.

Enfin, le troisième jour s'est tenue notre Pause IA Summit, une après-midi de conférences et d'échanges avec le public. Maxime Fournes et Jérémy Perret y ont présenté leurs analyses sur les risques liés à l'IA, la trajectoire actuelle des modèles de pointe et l'extrême difficulté de leur contrôle. Les questions du public, particulièrement pertinentes, ont donné lieu à des discussions riches et approfondies, concluant l'événement sur une note très positive.

PauseAction - Agir simplement, agir efficacement

PauseAction est notre outil d'action collective : un groupe WhatsApp où chaque semaine, nous partageons quelques actions concrètes pour peser dans le débat sur l'IA. Signer une consultation publique, partager un rapport clé, commenter une proposition de loi... chaque geste prend moins de 10 minutes et contribue à faire entendre notre voix.

Pourquoi ne pas sauver le futur de l'humanité entre deux cafés ?

 
Rejoindre PauseAction
 
 Facebook  X / Twitter  Linkedin  Instagram  Youtube

Pause IA

32 boulevard de Strasbourg
75010 PARIS
Email : contact@pauseia.fr
Site web : www.pauseia.fr

Gérer mes préférences d'emails

 Facebook  X / Twitter  Instagram