Les pirates surveillent la sécurité de l’IA
À l'ère de l'information, les géants technologiques comme Microsoft, Google, Nvidia et Meta testent leurs modèles d'intelligence artificielle (IA) comme jamais auparavant. Avec l'essor des systèmes d'IA génératifs, la sécurité est devenue une préoccupation majeure. Forbes a interviewé les responsables des « red teams » d'IA de ces entreprises, soulignant que la sécurité devient un critère marketing clé pour ces entreprises.
Mieux vaut prévenir que guérir : le rôle des équipes rouges dans l'IA
Une équipe rouge est un groupe de hackers éthiques chargé de tester la robustesse et la sécurité d'un système. OpenAI, par exemple, a fait appel à des experts externes pour tester les failles et biais potentiels de ses modèles GPT-3.5 et GPT-4. Ces experts ont réalisé des tests qui ont révélé des réponses inacceptables générées par les modèles, lesquelles ont été rapidement corrigées.
De même, d'autres équipes rouges ont examiné les premières versions de modèles comme GPT-4, leur demandant d'effectuer des activités illégales et malveillantes. Ces tests de sécurité ont permis d'identifier et de corriger plusieurs vulnérabilités.
Trouver le bon équilibre : sécurité et utilité
Les responsables d'équipes rouges doivent souvent trouver un équilibre entre sécurité et utilité. Un modèle d'IA trop restrictif est sûr mais inutile ; à l'inverse, un modèle trop permissif est utile mais potentiellement dangereux. Il s'agit d'un exercice d'équilibre délicat, qui exige une attention constante et méticuleuse pour garantir l'utilité et la sécurité des modèles.
Techniques et tactiques de l'équipe rouge en IA
Le concept d'équipe rouge n'est pas nouveau, puisqu'il remonte aux années 1960. Cependant, avec l'avènement de l'IA générative, les méthodes de test et les défis de sécurité ont évolué. Les équipes rouges emploient diverses tactiques, allant de la génération de réponses inadéquates à l'extraction de données sensibles et à la contamination d'ensembles de données. Daniel Fabian, responsable de la nouvelle équipe rouge IA de Google, explique que l'équipe utilise un ensemble diversifié de techniques pour assurer la sécurité des modèles.

102010925 – pirate informatique utilisant Internet piraté un serveur informatique abstrait, une base de données, un stockage réseau, un pare-feu, un compte de réseau social, un vol de données
Partage des connaissances et des outils : la communauté Red Team
Le domaine de la sécurité de l'IA étant encore en développement, les équipes rouges ont tendance à partager leurs découvertes et leurs outils. Microsoft a mis à disposition du public des outils de test de sécurité open source, tels que Counterfit. Ce partage de ressources et de connaissances contribue à renforcer l'ensemble de l'écosystème de l'IA.
Événements de haut niveau et défis Red Teaming
Récemment, un événement sponsorisé par la Maison-Blanche a réuni plusieurs géants de la technologie, qui ont proposé leurs modèles d'IA à des hackers externes pour les tester. Ces tests intensifs ont conduit à la découverte de plusieurs nouvelles vulnérabilités, démontrant l'importance de tels événements pour la sécurité mondiale de l'IA.
L’importance croissante de la sécurité dans l’IA
Face à l'intérêt croissant du public et des gouvernements pour la sécurité de l'IA, les équipes rouges deviennent un élément essentiel de la réussite des entreprises technologiques. Elles aident non seulement à identifier et à corriger les vulnérabilités, mais offrent également un avantage concurrentiel, la sécurité et la confiance devenant de plus en plus cruciales dans le paysage de l'IA.
En conclusion, les pirates informatiques contrôlent la sécurité de l'IA dans leur lutte pour une intelligence artificielle plus sûre. Grâce à une combinaison de techniques avancées, d'événements prestigieux et de partage de connaissances,