O ChatGPT, o popular chatbot de inteligência artificial da OpenAI, está no centro de uma nova polémica relacionada com a privacidade e a difamação na Europa. Um utilizador norueguês ficou horrorizado ao descobrir que o ChatGPT inventou informações falsas sobre ele, alegando que tinha sido condenado por assassinar dois dos seus filhos e tentar matar o terceiro.
A queixa e as suas implicações
A organização de defesa dos direitos de privacidade Noyb está a apoiar este indivíduo numa queixa contra a OpenAI. Esta situação levanta sérias questões sobre a precisão e a responsabilidade dos sistemas de IA generativa.
Quando questionado sobre “quem é Arve Hjalmar Holmen?”, o ChatGPT respondeu com uma história trágica e completamente falsa. Afirmou que Holmen tinha sido condenado a 21 anos de prisão por matar dois dos seus filhos. Embora alguns detalhes, como o número de filhos e a sua cidade natal, estivessem corretos, a acusação de homicídio era uma pura invenção.
Segundo o Regulamento Geral de Proteção de Dados (RGPD) da União Europeia, as empresas são obrigadas a garantir que os dados pessoais que produzem sobre indivíduos são precisos. A Noyb argumenta que a OpenAI está a violar esta lei ao permitir que o ChatGPT gere informações falsas e difamatórias.

Respostas e reações
A OpenAI tem enfrentado críticas crescentes sobre a tendência do ChatGPT para “alucinar” informações falsas. Embora a empresa tenha feito atualizações ao modelo subjacente, que parecem ter resolvido este caso específico, persistem preocupações sobre potenciais danos reputacionais.
Joakim Söderberg, advogado de proteção de dados da Noyb, afirmou: “O RGPD é claro. Os dados pessoais têm de ser precisos. Se não forem, os utilizadores têm o direito de os alterar para refletir a verdade. Mostrar aos utilizadores do ChatGPT um pequeno aviso de que o chatbot pode cometer erros claramente não é suficiente.”
A OpenAI ainda não comentou especificamente este caso. No entanto, a empresa tem historicamente respondido a queixas semelhantes bloqueando respostas para determinadas perguntas ou adicionando avisos sobre possíveis erros.
O futuro da regulação da IA
Este caso levanta questões importantes sobre como regular eficazmente as tecnologias de IA generativa. As autoridades de proteção de dados em toda a Europa têm adotado uma abordagem cautelosa, tentando equilibrar a inovação com a proteção dos direitos individuais.
Se for considerada culpada de violar o RGPD, a OpenAI pode enfrentar multas significativas e ser forçada a fazer alterações substanciais ao ChatGPT. Isto poderia ter implicações de longo alcance para o desenvolvimento e implementação de sistemas de IA generativa em todo o mundo.
Este caso serve como um lembrete vívido dos desafios éticos e legais que a IA generativa apresenta. À medida que estas tecnologias se tornam mais prevalentes, a necessidade de regulação eficaz e salvaguardas robustas torna-se cada vez mais urgente.
Outros artigos interessantes: