A inteligência artificial por trás do famoso chatbot ChatGPT está a passar por um momento conturbado. A OpenAI volta a ser alvo de uma queixa formal na União Europeia, desta vez devido à recusa em corrigir informação factualmente incorreta gerada pelo sistema. A queixa, apresentada pela organização de direitos digitais ‘noyb’, acusa a empresa de não conseguir assegurar o cumprimento da legislação europeia de privacidade.
Esta não é a primeira vez que o ChatGPT vê a sua reputação manchada pelo mesmo tipo de questões. Este problema crónico relacionado com a exatidão da informação produzida é especialmente sensível, colocando o IA Generativa em rota de colisão com o RGPD (Regulamento Geral sobre a Proteção de Dados) da UE. As penalidades por incumprimento podem ser pesadas, com multas a chegar até a 4% do volume de negócios global anual de uma empresa.
Mais grave ainda, é o facto de a lei europeia permitir que as autoridades competentes possam exigir alterações aos sistemas de processamento de dados, o que, neste caso, poderia remodelar o modo como as ferramentas do ChatGPT operam na Europa.
Problemas relacionados com o direito à retificação
Uma das principais queixas prende-se com o direito à retificação, consagrado no RGPD, que permite aos cidadãos europeus exigirem a correção de informação incorreta. No entanto, a OpenAI recusou-se a alterar a data de nascimento incorreta atribuída a um indivíduo numa resposta providenciada pela ferramenta, alegando tratar-se de algo tecnicamente impossível. Como alternativa, a empresa propôs filtrar ou bloquear a informação com base em parâmetros específicos, tais como o uso do nome completo da pessoa.
A política de privacidade da OpenAI indica que os utilizadores que detetaram informação factualmente incorreta gerada pelo chatbot podem submeter um pedido de correção. Contudo, ressalva que a retificação pode não ser exequível em todos os casos. A empresa sugere, em alternativa, a possibilidade de remoção completa de informação pessoal dos resultados do ChatGPT, desde que preenchido um formulário online para o efeito.
Falta de transparência
A queixosa, representada pela ‘noyb’, considera que a forma como OpenAI se posiciona perante esta situação não é aceitável, uma vez que, nos termos do RGPD, os cidadãos europeus têm o direito de solicitar tanto a retificação como a eliminação da sua informação pessoal. A organização acusa ainda a OpenAI de falta de transparência, apontando para a incapacidade da empresa em revelar a origem dos dados que processa e as entidades às quais esses dados podem ser transmitidos.
Este ponto é fundamental, já que a lei garante aos titulares dos dados, o direito de solicitar e obter essas informações através de um pedido de acesso. Segundo a ‘noyb’, a OpenAI falhou em fornecer uma resposta adequada a este tipo de pedido.
Implicações para a OpenAI
Maartje de Graaf, advogada na organização ‘noyb’, sublinhou, em comunicado, as implicações geradas por este tipo de falhas: “A invenção de informação falsa é de si bastante problemática. No entanto, quando o alvo dessa informação falsa são pessoas, a gravidade da situação aumenta consideravelmente. Fica assim claro que estas empresas não conseguem, atualmente, garantir que chatbots como o ChatGPT operam em conformidade com a lei Europeia quando processam dados pessoais. É fundamental que a tecnologia cumpra os requisitos legais e não o contrário”.
A organização está agora a solicitar à Autoridade Austríaca para a Proteção de Dados que investigue a queixa e imponha à OpenAI uma multa, assegurando o cumprimento futuro da lei. Devido à dimensão do caso, é provável que este seja tratado mediante canais de cooperação a nível europeu.
Outros artigos interessantes: