En quelques semaines, des experts chargés de rendre l'IA plus sûre ont claqué la porte des plus grandes entreprises du secteur. Un signal d'alarme difficile à ignorer.
Le constat est frappant : chez OpenAI, Anthropic et xAI, les départs se multiplient au sein même des équipes chargées de la sécurité. OpenAI a dissous son équipe d'alignement, le groupe dédié à s'assurer que ses modèles restent conformes aux valeurs de leurs concepteurs. La moitié de l'équipe fondatrice de xAI a également quitté l'entreprise.
Zoé Hitzig, chercheuse chez OpenAI, a démissionné le jour où la publicité a été introduit dans les discussions de ChatGPT. Dans une tribune publié dans le New York Times, elle pose une question qui dérange :
« OpenAI possède l'archive la plus détaillée jamais constituée de la pensée humaine. Peut-on leur faire confiance pour résister aux pressions qui les incitent à en abuser ? »
Même son de cloche du côté d'Anthropic : Mrinank Sharma, qui dirigeait la sécurité de l'IA, a quitté ses fonctions en laissant ces mots :
« Il semble que nous approchions d'un seuil où notre sagesse doit croître à parts égales avec notre capacité à influencer le monde, sous peine d'en subir les conséquences. »
Ces témoignages révèlent une tension profonde : entre la course effrénée au développement et les garde-fous éthiques, c'est souvent la sécurité qui cède. Quand ceux qui alertent de l'intérieur préfèrent partir plutôt que se taire, il serait imprudent de ne pas les écouter. |