Ir para o conteúdo principal
notícia

 Inteligência Artificial e “Síndrome da Vaca Louca” 

por 12 de setembro de 2023#!30Ter, 19 Nov 2024 11:47:21 +0100+01:002130#30Ter, 19 Nov 2024 11:47:21 +0100+01:00-11Europe/Rome3030Europe/Rome202430 19am30am-30Ter, 19 Nov 2024 11:47:21 +0100+01:0011Europe/Rome3030Europe/Rome2024302024Ter, 19 Nov 2024 11:47:21 +010047114711amTerça-feira=3831#!30Ter, 19 Nov 2024 11:47:21 +0100+01:00Europe/Rome11#Novembro 19th, 2024#!30Ter, 19 Nov 2024 11:47:21 +0100+01:002130#/30Ter, 19 Nov 2024 11:47:21 +0100+01:00-11Europe/Rome3030Europe/Rome202430#!30Ter, 19 Nov 2024 11:47:21 +0100+01:00Europe/Rome11#Sem comentarios

Inteligência artificial E "Síndrome da Vaca Louca"

EU'inteligência artificial (IA) sta affrontando una nuova crisi, questa volta da dentro. Uno studio recente da parte dei ricercatori della Rice e della Stanford University indica che l’uso massiccio di dati sintetici per l’addestramento dei modelli di IA può portare a problemi gravi. Questa tendenza preoccupante è stata denominata “Model Autophagy Disorder” o MAD, un termine che suona allarmante per una buona ragione.

O que é um conjunto de dados sintético?

Antes de mergulhar nos detalhes, é crucial entender o que são conjuntos de dados sintéticos. São conjuntos de dados gerados artificialmente, em vez de coletados no mundo real. Esses conjuntos de dados são usados para treinar modelos de aprendizado de máquina e incluem dados que vão desde textos e imagens gerados por algoritmos até dados financeiros simulados. A sua atratividade reside principalmente na sua disponibilidade, baixo custo e ausência de problemas de privacidade.

As vantagens dos conjuntos de dados sintéticos

O poder dos dados sintéticos reside na sua versatilidade e facilidade de uso. Eles não exigem coleta manual, evitam questões legais de privacidade e podem ser criados em volumes quase infinitos. A empresa de consultoria Gartner prevê que, até 2030, esses conjuntos de dados substituirão dados reais em muitas áreas de aplicação de IA.

A síndrome da “vaca louca” no aprendizado de máquina

Mas há um lado negro. O estudo mencionado acima fala sobre um fenômeno comparável ao overfitting no aprendizado de máquina, conhecido como “Transtorno de Autofagia Modelo” (MAD). Este termo técnico descreve uma desordem em que um modelo de IA começa a diminuir o seu desempenho com o uso contínuo de dados sintéticos. Ou seja, a IA começa a “enlouquecer”.

Causas e consequências do MAD

O problema parece surgir da falta de diversidade nos dados sintéticos. Quando um modelo de IA é treinado com um conjunto de dados demasiado homogéneo, começa a sobrepor-se num ciclo destrutivo. Este fenômeno foi descrito como “autofágico”, dando origem ao termo MAD.

Soluções propostas e considerações futuras

Nem tudo está perdido, no entanto. Os pesquisadores sugerem que a incorporação de dados reais no ciclo de treinamento poderia prevenir esse tipo de erosão do modelo. E à medida que a comunidade científica explora soluções, é essencial que os criadores de IA estejam conscientes desta potencial armadilha.

Conjuntos de dados sintéticos: uma faca de dois gumes?

Em conclusão, embora os conjuntos de dados sintéticos ofereçam vantagens indubitáveis em termos de custo, eficiência e privacidade, trazem consigo riscos novos e inesperados. Christian Internò, pesquisador na área de aprendizado de máquina, resume perfeitamente o dilema: “Os dados sintéticos são o futuro, mas precisamos aprender como gerenciá-los”. Com os olhos fixos no futuro, a comunidade de IA deve equilibrar os riscos e recompensas desta fronteira emergente de dados.

Deixe uma resposta