Mrinank Sharma, chercheur en sécurité au sein d’Anthropic, a annoncé sa démission en alertant publiquement sur les risques associés aux progrès rapides de l’intelligence artificielle. Il a déclaré que « le monde est en péril » et affirmé que les équipes chargées de la sûreté faisaient « constamment face à des pressions pour mettre de côté ce qui compte le plus ».
Selon ses propos, ces tensions concerneraient notamment la prise en compte des risques dits catastrophiques, parmi lesquels le bioterrorisme ou l’utilisation malveillante de systèmes d’IA avancés. Anthropic avait été fondée avec l’objectif affiché de développer une intelligence artificielle sûre et alignée sur les intérêts humains.
Le PDG de l’entreprise, Dario Amodei, a lui-même déclaré à plusieurs reprises que le rythme de progression des modèles d’IA était très rapide et a plaidé pour l’instauration de cadres réglementaires afin d’encadrer ces développements. Il a notamment évoqué la nécessité de garde-fous pour prévenir les usages dangereux et limiter les dérives potentielles.
Le départ de Mrinank Sharma s’inscrit dans un contexte plus large de démissions au sein des équipes de sécurité et d’alignement de grandes entreprises du secteur. En 2024, plusieurs membres de l’ancienne équipe « Superalignment » d’OpenAI ont quitté l’entreprise, invoquant des désaccords sur la priorité accordée à la sécurité face aux impératifs commerciaux.
Ces départs successifs ont mis en lumière un débat récurrent dans l’industrie technologique : l’équilibre entre innovation rapide, compétitivité économique et gestion des risques liés à des systèmes d’IA de plus en plus puissants. Plusieurs chercheurs et ingénieurs ont publiquement exprimé leurs inquiétudes quant au développement de « systèmes d’IA beaucoup plus intelligents que nous », appelant à davantage de transparence, de recherche en sûreté et de régulation internationale.