Privacy Overview
This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Always Active

Necessary cookies are required to enable the basic features of this site, such as providing secure log-in or adjusting your consent preferences. These cookies do not store any personally identifiable data.

No cookies to display.

Functional cookies help perform certain functionalities like sharing the content of the website on social media platforms, collecting feedback, and other third-party features.

No cookies to display.

Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc.

No cookies to display.

Performance cookies are used to understand and analyse the key performance indexes of the website which helps in delivering a better user experience for the visitors.

No cookies to display.

Advertisement cookies are used to provide visitors with customised advertisements based on the pages you visited previously and to analyse the effectiveness of the ad campaigns.

No cookies to display.

Passer au contenu principal

Votre panier est vide.

nouvelles

Les pirates surveillent la sécurité de l’IA

Par 8 septembre 2023Sans commentaires

Les pirates surveillent la sécurité de l’IA

À l’ère de l’information, des titans de la technologie comme Microsoft, Google, Nvidia et Meta testent leurs modèles d’intelligence artificielle (IA) comme jamais auparavant. Avec l’essor des systèmes d’IA générative, la sécurité est devenue une préoccupation centrale. Forbes a interviewé les responsables des équipes rouges d'IA de ces entreprises, soulignant à quel point la sécurité devient un critère marketing clé pour ces entreprises.

Mieux vaut prévenir que guérir : le rôle des équipes rouges dans l’IA

Une équipe rouge est un groupe de hackers éthiques chargés de tester la robustesse et la sécurité d’un système. OpenAI, par exemple, a embauché des experts externes pour tester les défauts et biais potentiels de ses modèles GPT-3.5 et GPT-4. Ces experts ont effectué des tests qui ont révélé des réponses inacceptables générées par les modèles, qui ont été rapidement corrigées.

De même, d’autres équipes rouges ont examiné des versions préliminaires de modèles comme GPT-4, leur demandant d’effectuer des activités illégales et malveillantes. Ces tests de sécurité ont conduit à l'identification et à la correction de plusieurs vulnérabilités.

Trouver le bon équilibre : sécurité et utilité

Les chefs d’équipe rouge se retrouvent souvent obligés de trouver un équilibre entre sécurité et utilité. Un modèle d’IA trop restrictif est sûr mais inutile ; au contraire, un modèle trop permissif est utile mais potentiellement dangereux. Il s’agit d’un exercice d’équilibre délicat, qui nécessite une attention constante et méticuleuse afin de conserver les modèles à la fois utiles et sûrs.

Techniques et tactiques de l'équipe rouge en IA

Le concept de red teaming n’est pas nouveau et remonte aux années 1960. Cependant, avec l’avènement de l’IA générative, les méthodes de test et les défis de sécurité ont évolué. Les équipes rouges emploient diverses tactiques, allant de la génération de réponses inappropriées à l'extraction de données sensibles et à la contamination d'ensembles de données. Daniel Fabian, responsable de la nouvelle équipe rouge IA de Google, explique que l'équipe utilise un ensemble diversifié de techniques pour assurer la sécurité des modèles.

102010925 – pirate informatique utilisant Internet piraté un serveur informatique abstrait, une base de données, un stockage réseau, un pare-feu, un compte de réseau social, un vol de données

Partage de connaissances et d'outils : la communauté Red Team

Le domaine de la sécurité de l’IA étant encore en développement, les équipes rouges ont tendance à partager leurs découvertes et leurs outils. Microsoft a mis à la disposition du public des outils de test de sécurité open source, tels que Counterfit. Ce partage de ressources et de connaissances contribue à renforcer l’ensemble de l’écosystème de l’IA.

Événements de haut niveau et défis Red Teaming

Récemment, un événement soutenu par la Maison Blanche a réuni plusieurs géants de la technologie, qui ont mis leurs modèles d’IA à la disposition des pirates informatiques extérieurs. Ces tests intensifs ont conduit à la découverte de plusieurs nouvelles vulnérabilités, démontrant l’importance de tels événements pour la sécurité mondiale de l’IA.

L’importance croissante de la sécurité dans l’IA

Alors que le public et les gouvernements accordent une attention accrue à la sécurité de l’IA, les équipes rouges deviennent un élément essentiel du succès des entreprises technologiques. Ils aident non seulement à identifier et à corriger les vulnérabilités, mais offrent également un avantage concurrentiel, alors que la sécurité et la confiance deviennent de plus en plus critiques dans le paysage de l'IA.

En conclusion, les hackers contrôlent la sécurité de l’IA dans la bataille visant à rendre l’intelligence artificielle plus sûre. Grâce à un ensemble de techniques avancées, d'événements de grande envergure et de partage de connaissances,

Laisser un commentaire