Saltar al contenido principal
Noticias

Los piratas informáticos supervisan la seguridad de la IA

por 8 de septiembre de 2023No hay comentarios

Los piratas informáticos supervisan la seguridad de la IA

En la era de la información, titanes de la tecnología como Microsoft, Google, Nvidia y Meta están probando sus modelos de inteligencia artificial (IA) como nunca antes. Con el auge de los sistemas de IA generativa, la seguridad se ha convertido en una preocupación central. Forbes entrevistó a los jefes de los equipos rojos de IA de estas empresas y destacó cómo la seguridad se está convirtiendo en un criterio de marketing clave para estas empresas.

Más vale prevenir que curar: el papel de los equipos rojos en la IA

Un equipo rojo es un grupo de hackers éticos encargados de probar la solidez y seguridad de un sistema. OpenAI, por ejemplo, ha contratado expertos externos para probar posibles fallos y sesgos en sus modelos GPT-3.5 y GPT-4. Estos expertos realizaron pruebas que descubrieron respuestas inaceptables generadas por los modelos, que fueron rápidamente corregidas.

De manera similar, otros equipos rojos han examinado versiones preliminares de modelos como GPT-4, pidiéndoles que realicen actividades ilegales y maliciosas. Estas pruebas de seguridad llevaron a la identificación y corrección de varias vulnerabilidades.

Encontrar el equilibrio adecuado: seguridad frente a utilidad

Los líderes de los equipos rojos a menudo se ven obligados a equilibrar la seguridad con la utilidad. Un modelo de IA demasiado restrictivo es seguro pero inútil; por el contrario, un modelo demasiado permisivo es útil pero potencialmente peligroso. Se trata de un delicado acto de equilibrio que requiere una atención constante y meticulosa para mantener los modelos útiles y seguros.

Técnicas y tácticas del equipo rojo en IA

El concepto de equipo rojo no es nuevo y se remonta a la década de 1960. Sin embargo, con la llegada de la IA generativa, los métodos de prueba y los desafíos de seguridad han evolucionado. Los equipos rojos emplean una variedad de tácticas, desde generar respuestas inapropiadas hasta extraer datos confidenciales y contaminar conjuntos de datos. Daniel Fabian, jefe del nuevo equipo rojo de IA de Google, explica que el equipo utiliza un conjunto diverso de técnicas para mantener los modelos seguros.

102010925 – hacker que utiliza Internet piratea servidor informático abstracto, base de datos, almacenamiento de red, firewall, cuenta de red social, robo de datos

Compartiendo conocimientos y herramientas: la comunidad del Red Team

Dado que el campo de la seguridad de la IA aún está en desarrollo, los equipos rojos tienden a compartir sus hallazgos y herramientas. Microsoft ha puesto a disposición del público herramientas de prueba de seguridad de código abierto, como Counterfit. Este intercambio de recursos y conocimientos ayuda a fortalecer todo el ecosistema de IA.

Eventos de alto perfil y desafíos de Red Teaming

Recientemente, un evento respaldado por la Casa Blanca contó con la participación de varios gigantes tecnológicos, que pusieron sus modelos de IA a disposición de piratas informáticos externos para que los probaran. Estas pruebas intensivas llevaron al descubrimiento de varias vulnerabilidades nuevas, lo que demuestra la importancia de este tipo de eventos para la seguridad global de la IA.

La creciente importancia de la seguridad en la IA

Con una mayor atención tanto del público como de los gobiernos a la seguridad en la IA, los equipos rojos se están convirtiendo en un componente esencial para el éxito de las empresas de tecnología. No sólo ayudan a identificar y corregir vulnerabilidades, sino que también ofrecen una ventaja competitiva, ya que la seguridad y la confianza se vuelven cada vez más críticas en el panorama de la IA.

En conclusión, los piratas informáticos controlan la seguridad de la IA en la batalla para hacer que la inteligencia artificial sea más segura. A través de un conjunto de técnicas avanzadas, eventos de alto perfil e intercambio de conocimientos,

Dejar una respuesta