Privacy Overview
This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Always Active

Necessary cookies are required to enable the basic features of this site, such as providing secure log-in or adjusting your consent preferences. These cookies do not store any personally identifiable data.

No cookies to display.

Functional cookies help perform certain functionalities like sharing the content of the website on social media platforms, collecting feedback, and other third-party features.

No cookies to display.

Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc.

No cookies to display.

Performance cookies are used to understand and analyse the key performance indexes of the website which helps in delivering a better user experience for the visitors.

No cookies to display.

Advertisement cookies are used to provide visitors with customised advertisements based on the pages you visited previously and to analyse the effectiveness of the ad campaigns.

No cookies to display.

Saltar al contenido principal
Noticias

Los piratas informáticos supervisan la seguridad de la IA

por 8 de septiembre de 2023No hay comentarios

Los piratas informáticos supervisan la seguridad de la IA

En la era de la información, titanes de la tecnología como Microsoft, Google, Nvidia y Meta están probando sus modelos de inteligencia artificial (IA) como nunca antes. Con el auge de los sistemas de IA generativa, la seguridad se ha convertido en una preocupación central. Forbes entrevistó a los jefes de los equipos rojos de IA de estas empresas y destacó cómo la seguridad se está convirtiendo en un criterio de marketing clave para estas empresas.

Más vale prevenir que curar: el papel de los equipos rojos en la IA

Un equipo rojo es un grupo de hackers éticos encargados de probar la solidez y seguridad de un sistema. OpenAI, por ejemplo, ha contratado expertos externos para probar posibles fallos y sesgos en sus modelos GPT-3.5 y GPT-4. Estos expertos realizaron pruebas que descubrieron respuestas inaceptables generadas por los modelos, que fueron rápidamente corregidas.

De manera similar, otros equipos rojos han examinado versiones preliminares de modelos como GPT-4, pidiéndoles que realicen actividades ilegales y maliciosas. Estas pruebas de seguridad llevaron a la identificación y corrección de varias vulnerabilidades.

Encontrar el equilibrio adecuado: seguridad frente a utilidad

Los líderes de los equipos rojos a menudo se ven obligados a equilibrar la seguridad con la utilidad. Un modelo de IA demasiado restrictivo es seguro pero inútil; por el contrario, un modelo demasiado permisivo es útil pero potencialmente peligroso. Se trata de un delicado acto de equilibrio que requiere una atención constante y meticulosa para mantener los modelos útiles y seguros.

Técnicas y tácticas del equipo rojo en IA

El concepto de equipo rojo no es nuevo y se remonta a la década de 1960. Sin embargo, con la llegada de la IA generativa, los métodos de prueba y los desafíos de seguridad han evolucionado. Los equipos rojos emplean una variedad de tácticas, desde generar respuestas inapropiadas hasta extraer datos confidenciales y contaminar conjuntos de datos. Daniel Fabian, jefe del nuevo equipo rojo de IA de Google, explica que el equipo utiliza un conjunto diverso de técnicas para mantener los modelos seguros.

102010925 – hacker que utiliza Internet piratea servidor informático abstracto, base de datos, almacenamiento de red, firewall, cuenta de red social, robo de datos

Compartiendo conocimientos y herramientas: la comunidad del Red Team

Dado que el campo de la seguridad de la IA aún está en desarrollo, los equipos rojos tienden a compartir sus hallazgos y herramientas. Microsoft ha puesto a disposición del público herramientas de prueba de seguridad de código abierto, como Counterfit. Este intercambio de recursos y conocimientos ayuda a fortalecer todo el ecosistema de IA.

Eventos de alto perfil y desafíos de Red Teaming

Recientemente, un evento respaldado por la Casa Blanca contó con la participación de varios gigantes tecnológicos, que pusieron sus modelos de IA a disposición de piratas informáticos externos para que los probaran. Estas pruebas intensivas llevaron al descubrimiento de varias vulnerabilidades nuevas, lo que demuestra la importancia de este tipo de eventos para la seguridad global de la IA.

La creciente importancia de la seguridad en la IA

Con una mayor atención tanto del público como de los gobiernos a la seguridad en la IA, los equipos rojos se están convirtiendo en un componente esencial para el éxito de las empresas de tecnología. No sólo ayudan a identificar y corregir vulnerabilidades, sino que también ofrecen una ventaja competitiva, ya que la seguridad y la confianza se vuelven cada vez más críticas en el panorama de la IA.

En conclusión, los piratas informáticos controlan la seguridad de la IA en la batalla para hacer que la inteligencia artificial sea más segura. A través de un conjunto de técnicas avanzadas, eventos de alto perfil e intercambio de conocimientos,

Dejar una respuesta