L’intelligence artificielle et la biosécurité : Un potentiel double tranchant ?
L’intelligence artificielle (IA) est un sujet qui fait couler beaucoup d’encre. Elle présente un potentiel incroyable pour transformer notre monde, mais elle suscite également de nombreuses inquiétudes. Un des sujets les plus controversés : la possibilité que l’IA puisse être utilisée pour créer des virus. Cette idée, en apparence digne d’un roman de science-fiction, est en réalité une préoccupation bien réelle pour les experts en IA et en biosécurité. Voyons pourquoi.
OpenAI et la menace potentielle de l’IA en virologie
OpenAI, la compagnie à l’origine de ChatGPT, a récemment exprimé ses inquiétudes quant à l’utilisation potentielle de ses futurs modèles d’IA pour créer des virus. Dans un billet de blog publié en juin 2025, l’entreprise met en lumière un concept qu’elle nomme « l’élévation des novices ».
L’élévation des novices : une menace en devenir ?
Le terme « élévation des novices » désigne un phénomène où l’IA pourrait transmettre à des individus sans expertise scientifique les compétences nécessaires pour manipuler des données biologiques sensibles. En d’autres termes, des amateurs pourraient, grâce à des IA comme ChatGPT, obtenir des instructions précises pour reproduire ou modifier des virus.
OpenAI a commencé à anticiper ce risque dès avril 2025, renforçant ses mesures de sécurité en conséquence. Johannes Heidecke, responsable des systèmes de sécurité chez OpenAI, a toutefois précisé que cette menace n’était pas encore entièrement concrète. Néanmoins, les futurs modèles, tels que les successeurs des versions O3 et O4-mini, pourraient bientôt offrir de telles capacités.
OpenAI : une stratégie proactive de prévention
Face à ce risque, OpenAI a déjà mis en place plusieurs garde-fous pour limiter les abus. Ses modèles de ChatGPT sont conçus pour bloquer les demandes liées à la création de virus ou d’armes biologiques. En cas de requête suspecte, un algorithme intercepte la demande et un examen humain prend le relais pour évaluer le danger.
Avant de déployer une nouvelle IA, OpenAI effectue également des tests rigoureux en collaboration avec des experts externes et des autorités publiques. Cela inclut le travail avec des équipes spécialisées en biosécurité et des institutions comme le Los Alamos National Lab pour évaluer l’impact de l’IA dans des environnements de laboratoire.
Le potentiel bénéfique de l’IA en médecine
Mais l’IA n’est pas seulement une menace potentielle. Elle représente également une promesse d’avancées majeures en médecine. Les mêmes modèles de ChatGPT qui pourraient, en théorie, guider la création d’un virus pourraient aussi accélérer la découverte de nouveaux médicaments, concevoir des vaccins plus efficaces ou développer des traitements pour des maladies rares.
Conclusion : l’IA, un outil à double tranchant
Comme nous l’avons vu, l’IA présente à la fois des risques et des opportunités majeures en biologie. Pour tirer le meilleur parti de cette technologie, il est crucial de mettre en place des mesures de contrôle rigoureuses et de travailler en étroite collaboration avec les experts en biosécurité.
Un sommet sur la biodéfense est prévu pour juillet 2025. Il réunira chercheurs, ONG et autorités pour explorer plus en détail les risques et les opportunités de l’IA en biologie. Ce sera une occasion précieuse de partager des connaissances, de discuter des meilleures pratiques et de développer des stratégies pour gérer et exploiter de manière responsable le
Share this content: