De Google à Nvidia, os hackers agora fazem parte da equipe de várias das maiores empresas de tecnologia. E a finalidade das contratações: encontrar brechas nas IAs desenvolvidas por elas. Venha entender esse cenário!
Encontrar falhas e/ou conteúdos sensíveis nas inteligências artificiais vem sendo a principal batalha travada por empresas de tecnologia de todo mundo.
Pioneira e principal referência quando falamos no assunto, a OpenIA, responsável pelo ChatGPT, investiu pesado na criação do que chamaram de uma “equipe vermelha” composta por diversos especialistas para encontrar erros que não deveriam chegar ao público.
Entre eles estava o advogado do Quênia, Boru Gollo, que ficou responsável por injetar prompts nocivos que estimulam estereótipos, preconceitos e até mesmo violência contra africanos e mulçumanos para ver como o sistema reagiria.
Desse teste, diversas respostas prejudiciais puderam ser retiradas de circulação antes mesmo que o ChatGPT chegasse ao público.
Entretanto, a OpenIA não foi a única empresa do ramo a criar sua “equipe vermelha”. Marcas como Google, Meta e Nvidia agora também estruturam seus próprios times para barrar problemas.
Com o objetivo de proteger os sistemas de IA de serem explorados por indivíduos ou grupos nocivos, os hackers pensam como o “inimigo” para procurar por brechas e tapá-las.
Segundo Cristian Canton, chefe da ‘red-team’ de IA do Facebook, a ideia é chegar ao equilíbrio com esses testes. “Você terá um modelo que diz não para tudo e é super seguro, mas é inútil”, afirmou ele.
E o mais interessante de todo esse cenário é que os times vermelhos sequer são uma invenção de agora, mas estão presentes no ramo de softwares desde a década de 1960.
A seguir você vai poder entender melhor para que servem e como se organizam essas equipes!
Os Red-Teams
As equipes vermelhas são uma constante no mundo da tecnologia desde os primórdios da internet, sendo usadas no início para tornar os sistemas o mais robusto possível.
A partir desse momento, suas aplicações passaram por diversos setores, nem sempre atingindo o ideal de segurança desejado.
“Em computadores, nunca podemos dizer ‘isso é seguro’. Tudo o que sempre podemos dizer é ‘tentamos e não conseguimos quebrá-lo’”, disse Bruce Schneier, um tecnólogo de segurança da Harvard University em entrevista para a Forbes.
Essas fronteiras de segurança se tornam ainda mais finas e embasadas com a chegada da IA generativa, uma vez que ela é alimentada por dados diversos coletados online – e que podem conter conteúdos sensíveis.
Desse modo, a saída encontrada pelas empresas foi a criação dos red-teams para questionar os modelos de IA até que eles tragam respostas problemáticas.
Para Cristian Canton, engenheiro de liderança de IA na Meta, o segredo para modelar as inteligências da maneira correta são os testes.
“O lema da nossa equipe de red team de IA é ‘quanto mais você suar no treinamento, menos sangrará na batalha”, afirma ele.
As informações coletadas pelas equipes vermelhas são repassadas para o sistema e aprimoram o processo de machine learning das máquinas para que reconheçam termos e formulações de frases como ofensivas e/ou nocivas.
Outros dados que são considerados “brechas” são informações pessoais, como nomes, endereços residenciais e números pessoais, bem como outras respostas que possam vir a prejudicar um indivíduo.
E até mesmo a Casa Branca entrou na onda dos times vermelhos!
Em agosto deste ano, o governo dos Estados Unidos promoveu uma “gincana” entre as red-teams de algumas grandes corporações, como o Llama 2 da Meta e o LaMDA do Google, para que tentassem violar seus sistemas internos.
A prática de usar hacker como protetores, ao invés de invasores, não é recente, mas nunca fez tanta diferença como nos dias de hoje com as IAs Generativas.
Outros artigos interessantes: