Ir para o conteúdo principal
notícia

Hackers monitoram segurança de IA

por 8 de setembro de 2023Sem comentarios

Hackers monitoram segurança de IA

Na era da informação, gigantes da tecnologia como Microsoft, Google, Nvidia e Meta estão testando seus modelos de inteligência artificial (IA) como nunca antes. Com a ascensão dos sistemas de IA generativa, a segurança se tornou uma preocupação fundamental. A Forbes entrevistou os líderes das "red teams" de IA dessas empresas, destacando como a segurança está se tornando um critério de marketing fundamental para esses negócios.

Prevenir é melhor que remediar: o papel das equipes vermelhas na IA

Uma equipe vermelha é um grupo de hackers éticos encarregados de testar a robustez e a segurança de um sistema. A OpenAI, por exemplo, contratou especialistas externos para testar potenciais falhas e vieses em seus modelos GPT-3.5 e GPT-4. Esses especialistas realizaram testes que revelaram respostas inaceitáveis geradas pelos modelos, que foram prontamente corrigidas.

Da mesma forma, outras equipes vermelhas examinaram versões iniciais de modelos como o GPT-4, solicitando que realizassem atividades ilegais e maliciosas. Esses testes de segurança levaram à identificação e correção de diversas vulnerabilidades.

Encontrando o equilíbrio certo: segurança versus utilidade

Gerentes de equipes vermelhas frequentemente se veem tendo que equilibrar segurança e utilidade. Um modelo de IA muito restritivo é seguro, mas inútil; por outro lado, um modelo muito permissivo é útil, mas potencialmente perigoso. Este é um ato de equilíbrio delicado, que exige atenção constante e meticulosa para manter os modelos úteis e seguros.

Técnicas e táticas do Red Team em IA

O conceito de "red teaming" não é novo, remontando à década de 1960. No entanto, com o advento da IA generativa, os métodos de teste e os desafios de segurança evoluíram. As "red teams" empregam uma variedade de táticas, desde a geração de respostas inadequadas até a extração de dados sensíveis e a contaminação de conjuntos de dados. Daniel Fabian, chefe da nova "red team" de IA do Google, explica que a equipe utiliza um conjunto diversificado de técnicas para manter os modelos seguros.

102010925 – hacker usando a internet invadiu servidor de computador abstrato, banco de dados, armazenamento de rede, firewall, conta de rede social, roubo de dados

Compartilhando Conhecimento e Ferramentas: A Comunidade da Equipe Vermelha

Como a área de segurança de IA ainda está em desenvolvimento, as equipes vermelhas tendem a compartilhar suas descobertas e ferramentas. A Microsoft disponibilizou publicamente ferramentas de teste de segurança de código aberto, como o Counterfit. Esse compartilhamento de recursos e conhecimento ajuda a fortalecer todo o ecossistema de IA.

Eventos de alto perfil e desafios de Red Teaming

Recentemente, um evento patrocinado pela Casa Branca contou com a presença de diversas gigantes da tecnologia, que ofereceram seus modelos de IA para testes por hackers externos. Esses testes intensivos levaram à descoberta de diversas novas vulnerabilidades, demonstrando a importância desses eventos para a segurança global da IA.

A crescente importância da segurança na IA

Com o aumento do foco público e governamental na segurança da IA, as equipes vermelhas estão se tornando um componente essencial para o sucesso das empresas de tecnologia. Elas não apenas ajudam a identificar e corrigir vulnerabilidades, mas também proporcionam uma vantagem competitiva, à medida que a segurança e a confiança se tornam cada vez mais cruciais no cenário da IA.

Concluindo, Hackers Controlam a Segurança da IA na batalha para tornar a inteligência artificial mais segura. Por meio de uma combinação de técnicas avançadas, eventos de alto nível e compartilhamento de conhecimento,

Deixe uma resposta