Uma imagem deepfake pornográfica de Taylor Swift, criada por Inteligência Artificial generativa, foi partilhada mais de 47 milhões de vezes antes de ser apagada.
As deepfake são imagens ou vídeos criados com recurso a inteligência artificial e que são de tal maneira críveis que passam por verdadeiras, só sendo detetadas com recurso a ferramentas próprias.
A deepfake pornográfica de Taylor Swift causou um grande impacto e discussão nas redes sociais porque a cantora é um fenómeno musical, sendo atualmente a artista nº2 na lista dos mais ouvidos no Spotify.
Situação pode ficar fora de controlo
Uma deepfake pornográfica de Taylor Swift foi vista mais de 47 milhões de vezes na rede social X, onde permaneceu durante mais de 17 horas antes de ser excluída, segundo a agência France-Presse. A rede social X é conhecida por ter regras menos rígidas sobre nudez do que o Instagram ou o Facebook.
A criação de imagens falsas de mulheres famosas e pessoas anónimas não é novidade. No entanto, o desenvolvimento de programas generativos de IA pode levar a um fluxo incontrolável de conteúdos degradantes, alertam muitos activistas e reguladores.
X remove todas as imagens
Danisha Carter, influenciadora com várias centenas de milhares de seguidores nas redes sociais, sublinhou que a situação da deepfake pornográfica de Taylor Swift pode levar à aprovação de uma lei para combater o problema.
A Apple e a Google podem controlar o conteúdo que circula nas aplicações, através das regras que impõem nos seus dispositivos móveis, mas têm tolerado a situação no X.
A plataforma X afirmou num comunicado de imprensa que tem “uma política de tolerância zero” em relação à publicação não consensual de imagens de nudez e que está a remover todas as imagens identificadas da cantora.
CEO da Microsoft: “temos de agir rapidamente”
“Sim, temos de atuar”, disse o CEO da Microsoft em resposta a uma pergunta sobre os deepfakes de Swift, numa entrevista na cadeia norte-americana de televisão NBC.
“Penso que todos beneficiamos quando o mundo em linha é um mundo seguro. Por isso, não creio que alguém queira um mundo em linha que não seja completamente seguro, tanto para os criadores como para os consumidores de conteúdos. Por isso, acho que nos cabe a nós agir rapidamente nesta matéria”, concluiu Satya Nadella.
De acordo com o site 404 Media, o deepfake pornográfico de Taylor Swift foi construído com Design, uma ferramenta de Inteligência Artificial generativa da Microsoft.
“Levamos estas denúncias muito a sério e estamos empenhados em proporcionar uma experiência segura para todos. Investigámos estas denúncias e não conseguimos reproduzir as imagens explícitas nelas contidas. Os nossos filtros de segurança para conteúdos explícitos estavam a funcionar e, até agora, não encontrámos provas de que tenham sido contornados. Por uma questão de precaução, tomámos medidas para reforçar os nossos avisos de filtragem de texto e resolver a utilização indevida dos nossos serviços”, afirma a Microsoft em comunicado
O Problema dos deepfakes
A congressista democrata Yvette Clarke lembrou que o que aconteceu a Taylor Swift não é novo, pois as mulheres têm sido alvo de imagens falsas sem o seu consentimento há anos. Com os avanços na IA, a criação destas imagens tornou-se mais fácil e barata.
Um estudo de 2019 estimou que 96% dos vídeos ‘deepfakes’ eram de natureza pornográfica. Segundo a revista Wired, 113 mil desses vídeos foram carregados nos principais sites pornográficos durante os primeiros nove meses de 2023.
Outros artigos interessantes: