Los piratas informáticos supervisan la seguridad de la IA
En la era de la información, gigantes tecnológicos como Microsoft, Google, Nvidia y Meta están probando sus modelos de inteligencia artificial (IA) como nunca antes. Con el auge de los sistemas de IA generativa, la seguridad se ha convertido en una preocupación clave. Forbes entrevistó a los responsables de los "equipos rojos" de IA de estas empresas, destacando cómo la seguridad se está convirtiendo en un criterio clave de marketing para estas empresas.
Más vale prevenir que curar: el papel de los equipos rojos en la IA
Un equipo rojo es un grupo de hackers éticos encargados de probar la robustez y seguridad de un sistema. OpenAI, por ejemplo, contrató a expertos externos para detectar posibles fallos y sesgos en sus modelos GPT-3.5 y GPT-4. Estos expertos realizaron pruebas que detectaron respuestas inaceptables generadas por los modelos, las cuales se corrigieron rápidamente.
De igual forma, otros equipos rojos han examinado versiones preliminares de modelos como GPT-4, pidiéndoles que realicen actividades ilegales y maliciosas. Estas pruebas de seguridad han permitido identificar y corregir varias vulnerabilidades.
Encontrar el equilibrio adecuado: seguridad vs. utilidad
Los gerentes de equipos rojos a menudo se ven obligados a encontrar un equilibrio entre la seguridad y la utilidad. Un modelo de IA demasiado restrictivo es seguro, pero inútil; por el contrario, un modelo demasiado permisivo es útil, pero potencialmente peligroso. Este es un delicado equilibrio que requiere atención constante y meticulosa para mantener los modelos útiles y seguros.
Técnicas y tácticas del equipo rojo en IA
El concepto de equipos rojos no es nuevo, pues data de la década de 1960. Sin embargo, con la llegada de la IA generativa, los métodos de prueba y los desafíos de seguridad han evolucionado. Los equipos rojos emplean diversas tácticas, desde generar respuestas inadecuadas hasta extraer datos confidenciales y contaminar conjuntos de datos. Daniel Fabian, director del nuevo equipo rojo de IA de Google, explica que el equipo utiliza diversas técnicas para mantener la seguridad de los modelos.

102010925 – hacker que utiliza Internet piratea servidor informático abstracto, base de datos, almacenamiento de red, firewall, cuenta de red social, robo de datos
Compartiendo conocimientos y herramientas: La comunidad del Equipo Rojo
Dado que el campo de la seguridad de la IA aún está en desarrollo, los equipos rojos suelen compartir sus hallazgos y herramientas. Microsoft ha puesto a disposición del público herramientas de código abierto para pruebas de seguridad, como Counterfit. Este intercambio de recursos y conocimientos contribuye a fortalecer todo el ecosistema de la IA.
Eventos de alto perfil y desafíos de Red Teaming
Recientemente, un evento patrocinado por la Casa Blanca contó con la participación de varios gigantes tecnológicos que ofrecieron sus modelos de IA para que hackers externos los probaran. Estas pruebas intensivas condujeron al descubrimiento de varias vulnerabilidades nuevas, lo que demuestra la importancia de este tipo de eventos para la seguridad global de la IA.
La creciente importancia de la seguridad en la IA
Con la creciente atención pública y gubernamental a la seguridad de la IA, los equipos rojos se están convirtiendo en un componente esencial para el éxito de las empresas tecnológicas. No solo ayudan a identificar y corregir vulnerabilidades, sino que también ofrecen una ventaja competitiva, ya que la seguridad y la confianza son cada vez más cruciales en el panorama de la IA.
En conclusión, los hackers controlan la seguridad de la IA en la lucha por aumentar la seguridad de la inteligencia artificial. Mediante una combinación de técnicas avanzadas, eventos de alto perfil e intercambio de conocimientos,