Saltar al contenido principal
Noticias

Los piratas informáticos supervisan la seguridad de la IA

por 8 de septiembre de 2023No hay comentarios

Los piratas informáticos supervisan la seguridad de la IA

En la era de la información, gigantes tecnológicos como Microsoft, Google, Nvidia y Meta están probando sus modelos de inteligencia artificial (IA) como nunca antes. Con el auge de los sistemas de IA generativa, la seguridad se ha convertido en una preocupación clave. Forbes entrevistó a los responsables de los "equipos rojos" de IA de estas empresas, destacando cómo la seguridad se está convirtiendo en un criterio clave de marketing para estas empresas.

Más vale prevenir que curar: el papel de los equipos rojos en la IA

Un equipo rojo es un grupo de hackers éticos encargados de probar la robustez y seguridad de un sistema. OpenAI, por ejemplo, contrató a expertos externos para detectar posibles fallos y sesgos en sus modelos GPT-3.5 y GPT-4. Estos expertos realizaron pruebas que detectaron respuestas inaceptables generadas por los modelos, las cuales se corrigieron rápidamente.

De igual forma, otros equipos rojos han examinado versiones preliminares de modelos como GPT-4, pidiéndoles que realicen actividades ilegales y maliciosas. Estas pruebas de seguridad han permitido identificar y corregir varias vulnerabilidades.

Encontrar el equilibrio adecuado: seguridad vs. utilidad

Los gerentes de equipos rojos a menudo se ven obligados a encontrar un equilibrio entre la seguridad y la utilidad. Un modelo de IA demasiado restrictivo es seguro, pero inútil; por el contrario, un modelo demasiado permisivo es útil, pero potencialmente peligroso. Este es un delicado equilibrio que requiere atención constante y meticulosa para mantener los modelos útiles y seguros.

Técnicas y tácticas del equipo rojo en IA

El concepto de equipos rojos no es nuevo, pues data de la década de 1960. Sin embargo, con la llegada de la IA generativa, los métodos de prueba y los desafíos de seguridad han evolucionado. Los equipos rojos emplean diversas tácticas, desde generar respuestas inadecuadas hasta extraer datos confidenciales y contaminar conjuntos de datos. Daniel Fabian, director del nuevo equipo rojo de IA de Google, explica que el equipo utiliza diversas técnicas para mantener la seguridad de los modelos.

102010925 – hacker que utiliza Internet piratea servidor informático abstracto, base de datos, almacenamiento de red, firewall, cuenta de red social, robo de datos

Compartiendo conocimientos y herramientas: La comunidad del Equipo Rojo

Dado que el campo de la seguridad de la IA aún está en desarrollo, los equipos rojos suelen compartir sus hallazgos y herramientas. Microsoft ha puesto a disposición del público herramientas de código abierto para pruebas de seguridad, como Counterfit. Este intercambio de recursos y conocimientos contribuye a fortalecer todo el ecosistema de la IA.

Eventos de alto perfil y desafíos de Red Teaming

Recientemente, un evento patrocinado por la Casa Blanca contó con la participación de varios gigantes tecnológicos que ofrecieron sus modelos de IA para que hackers externos los probaran. Estas pruebas intensivas condujeron al descubrimiento de varias vulnerabilidades nuevas, lo que demuestra la importancia de este tipo de eventos para la seguridad global de la IA.

La creciente importancia de la seguridad en la IA

Con la creciente atención pública y gubernamental a la seguridad de la IA, los equipos rojos se están convirtiendo en un componente esencial para el éxito de las empresas tecnológicas. No solo ayudan a identificar y corregir vulnerabilidades, sino que también ofrecen una ventaja competitiva, ya que la seguridad y la confianza son cada vez más cruciales en el panorama de la IA.

En conclusión, los hackers controlan la seguridad de la IA en la lucha por aumentar la seguridad de la inteligencia artificial. Mediante una combinación de técnicas avanzadas, eventos de alto perfil e intercambio de conocimientos,

Dejar una respuesta