Les modèles d’intelligence artificielle les plus récents ne se contentent pas d’exceller en génie logiciel ; ils deviennent également de plus en plus efficaces pour identifier les failles de sécurité. Une recherche récente met en lumière cette avancée majeure, soulignant à la fois les opportunités et les défis que cela représente pour la cybersécurité.
L’IA, un atout majeur pour la cybersécurité
Une équipe de chercheurs de l’UC Berkeley a évalué la capacité des derniers modèles d’IA à détecter des vulnérabilités dans 188 bases de code open source. Grâce à un nouveau benchmark, CyberGym, ces modèles ont identifié 17 failles, dont 15 étaient jusqu’alors inconnues, ou ‘zero-day’. ‘Beaucoup de ces vulnérabilités sont critiques’, explique Dawn Song, professeure à l’UC Berkeley et responsable de cette étude.
Une course contre la montre
Les outils d’IA, comme Xbow, grimpent rapidement dans les classements des meilleurs chasseurs de bugs. Cette avancée technologique, couplée à des capacités de raisonnement améliorées, commence à transformer le paysage de la cybersécurité. ‘C’est un moment charnière’, affirme Song. ‘Les résultats ont dépassé nos attentes.’
Un double tranchant
Alors que ces modèles continuent de s’améliorer, ils pourraient automatiser non seulement la découverte mais aussi l’exploitation des failles de sécurité. Cela pourrait aider les entreprises à protéger leurs logiciels, mais aussi faciliter le travail des pirates. ‘Nous n’avons même pas vraiment poussé nos recherches’, ajoute Song. ‘Avec plus de moyens, les agents pourraient faire encore mieux.’
Les limites de l’IA
Malgré ces progrès, l’IA n’est pas encore à la hauteur de l’expertise humaine. Les meilleurs modèles et agents combinés n’ont pu identifier qu’environ 2% des vulnérabilités. ‘Ne remplacez pas encore vos chasseurs de bugs humains’, conseille Katie Moussouris, fondatrice et CEO de Luta Security.
L’avenir de la cybersécurité
Les experts s’accordent à dire que l’IA jouera un rôle clé dans la cybersécurité, mais soulignent l’importance de ne pas négliger d’autres techniques. Alors que l’IA facilite la découverte de vulnérabilités, il devient crucial de s’assurer que ces failles sont divulguées de manière responsable.