Le paysage réglementaire de l'IA traverse une phase de turbulences majeures. Le décret présidentiel signé le 11 décembre constitue une nouvelle offensive de l'administration Trump pour paralyser la réglementation de l'IA.
Ce décret crée un groupe spécial au sein du Département de la Justice dont la mission est de contester les lois étatiques jugées trop contraignantes pour l'industrie. Cette initiative a suscité une opposition notable au Congrès.
L'administration Trump a également lancé la Mission Genesis le 24 novembre, un effort national coordonné pour accélérer le développement de l'IA dans la recherche scientifique. Cette initiative, explicitement comparée au projet Manhattan, mobilise les laboratoires nationaux du Département de l'Énergie pour créer une plateforme combinant supercalculateurs, données fédérales et modèles d'IA. Cette référence au projet Manhattan, projet de recherche secret qui aboutit à la création de la bombe atomique, suggère des ambitions d'ampleur comparable avec potentiellement des risques tout aussi considérables.
La vision portée par cette initiative s'est précisée lors d'une présentation à l'Agence internationale de l'énergie atomique le 3 décembre. Un scientifique du Département de l'Énergie y a décrit un avenir où l'IA concevrait, construirait et ferait fonctionner des centrales nucléaires avec moins de 5% d'intervention humaine. Pourtant, confier des infrastructures aussi critiques à des systèmes automatisés amène de nouveaux risques de cyberattaques et de dysfonctionnements.
Cette course effrénée repose sur l'argument de la compétitivité face à la Chine. Mais elle illustre parfaitement un « dilemme du prisonnier » à l'échelle mondiale : chaque pays craint de perdre son avantage stratégique en donnant la priorité à la sécurité. Résultat, tous accélèrent ensemble sans mesures de sécurité suffisantes, augmentant collectivement les risques pour l'humanité. Si l'on court vers un précipice, la vitesse ne fait qu'aggraver la situation ; or, ce temps est précisément ce dont nous avons besoin pour comprendre et sécuriser les IA de pointe. Face à cette dynamique, la Chine a proposé la création d'une Organisation de Coopération Mondiale sur l'Intelligence Artificielle, une structure de coordination internationale pour la gouvernance de l'IA. Cette initiative vise à donner aux pays du Sud global une voix dans la définition des standards internationaux. Si les détails restent flous, cette proposition contraste avec l'approche américaine de déréglementation.
L'Union européenne vient de franchir un pas décisif dans l'application de son AI Act en inaugurant une plateforme de signalement sécurisée dédiée aux lanceurs d'alerte. Cet outil est conçu pour permettre aux individus qui travaillent avec des développeurs de modèles d'IA de dénoncer, en tout anonymat, les pratiques jugées dangereuses. L'initiative reconnaît explicitement l'importance vitale des lanceurs d’alertes pour détecter les potentielles violations susceptibles de menacer les droits fondamentaux. Bien que la protection juridique complète n'arrive qu'en août 2026, l'Union européenne marque une avancée majeure vers plus de transparence et de responsabilité dans le secteur.
Au Royaume-Uni, plus de 100 parlementaires de tous les partis politiques ont rejoint l'appel de l'organisation ControlAI pour une régulation des systèmes d'IA les plus puissants. Cette coalition reconnaît explicitement le risque d'extinction que pose la super intelligence et appelle le gouvernement britannique à tenir sa promesse de régulation.
La disparité des visions, entre la déréglementation prônée par les États-Unis, les appels à la coordination de la Chine et les mesures de protection de l'Europe et du Royaume-Uni, révèle un fossé géopolitique majeur.
Sans une gouvernance mondiale coordonnée, la course à l'IA est une compétition irresponsable. Nous risquons le développement accéléré de systèmes super intelligents dont la sécurité ne peut être garantie, plaçant la sécurité de l'humanité entière sous une menace existentielle. |