Saltar al contenido principal
Noticias

 Inteligencia artificial y “síndrome de las vacas locas” 

por 12 de septiembre de 2023#!30Mar, 19 Nov 2024 11:47:21 +0100+01:002130#30Mar, 19 Nov 2024 11:47:21 +0100+01:00-11Europa/Roma3030Europa/Roma202430 19am30am-30Mar, 19 Nov 2024 11:47:21 +0100+01:0011Europa/Roma3030Europa/Roma2024302024Mar, 19 Nov 2024 11:47:21 +010047114711ammartes=3816#!30Mar, 19 Nov 2024 11:47:21 +0100+01:00Europe/Rome11#19 de noviembre de 2024#!30 de marzo de 2024 11:47:21 +0100+01:002130#/30 de marzo de 2024 11:47:21 +0100+01:00-11Europe/Rome3030Europe/Rome202430#!30 de marzo de 2024 11:47:21 +0100+01:00Europe/Rome11#No hay comentarios

Inteligencia artificial Y "Síndrome de la vaca loca"

La inteligencia artificial (IA) se enfrenta a una nueva crisis, esta vez desde dentro. Un estudio reciente realizado por investigadores de las universidades de Rice y Stanford indica que el uso masivo de datos sintéticos para entrenar modelos de IA puede acarrear graves problemas. Esta preocupante tendencia se ha denominado «Trastorno de Autofagia de Modelos» o MAD, un término que resulta alarmante con razón.

¿Qué es un conjunto de datos sintéticos?

Antes de profundizar en los detalles, es crucial comprender qué son los conjuntos de datos sintéticos. Son conjuntos de datos generados artificialmente, en lugar de recopilarse del mundo real. Estos conjuntos de datos se utilizan para entrenar modelos de aprendizaje automático e incluyen una variedad de datos, desde texto e imágenes generados algorítmicamente hasta datos financieros simulados. Su atractivo reside principalmente en su disponibilidad, bajo coste y la ausencia de problemas de privacidad.

Las ventajas de los conjuntos de datos sintéticos

El poder de los datos sintéticos reside en su versatilidad y facilidad de uso. No requieren recopilación manual, evitan problemas de privacidad legal y pueden generarse en volúmenes casi infinitos. La consultora Gartner predice que, para 2030, estos conjuntos de datos reemplazarán a los datos reales en muchas áreas de aplicación de la IA.

El síndrome de las “vacas locas” en el aprendizaje automático

Pero hay un lado oscuro. El estudio mencionado analiza un fenómeno comparable al sobreajuste en el aprendizaje automático, conocido como «trastorno de autofagia del modelo» (MAD). Este término técnico describe un trastorno en el que un modelo de IA empieza a deteriorar su rendimiento con el uso continuo de datos sintéticos. En otras palabras, la IA empieza a «enloquecer».

Causas y consecuencias de la MAD

El problema parece surgir de la falta de diversidad en los datos sintéticos. Cuando un modelo de IA se entrena con un conjunto de datos demasiado homogéneo, comienza a solaparse consigo mismo en un ciclo destructivo. Este fenómeno se ha descrito como «autofagia», de ahí el término MAD.

Soluciones propuestas y consideraciones futuras

Sin embargo, no todo está perdido. Los investigadores sugieren que incorporar datos del mundo real al ciclo de entrenamiento podría prevenir este tipo de erosión del modelo. Y mientras la comunidad científica explora soluciones, es fundamental que los desarrolladores de IA sean conscientes de este posible obstáculo.

Conjuntos de datos sintéticos: ¿un arma de doble filo?

En conclusión, si bien los conjuntos de datos sintéticos ofrecen claras ventajas en términos de costo, eficiencia y privacidad, también conllevan riesgos nuevos e inesperados. Christian Internò, investigador en aprendizaje automático, resume el dilema a la perfección: «Los datos sintéticos son el futuro, pero debemos aprender a gestionarlos». Con la mirada puesta en el futuro, la comunidad de IA debe sopesar los riesgos y los beneficios de esta emergente frontera de datos.

Dejar una respuesta