A propagação de deepfakes, ou seja, conteúdos manipulados por Inteligência Artificial (IA) que replicam imagens, vídeos e áudios de forma irrealista, tem-se tornado um desafio crescente em contextos sociais e políticos.
Durante o conflito na Ucrânia, as dúvidas sobre a autenticidade de imagens reais chamaram a atenção para a necessidade de soluções eficazes de verificação. Em resposta, a Microsoft desenvolveu o Content Integrity Suite, um conjunto de ferramentas que oferece maior transparência e combate diretamente a desinformação gerada por IA.
Ferramentas da Microsoft para rastrear a autenticidade de conteúdo
Para enfrentar a proliferação de deepfakes, a Content Integrity Suite permite a criação e gestão de Credenciais de Conteúdo, metadados certificados que indicam o autor, data e se o conteúdo foi produzido com IA.
Estas credenciais integram-se na norma da Coalition for Content Provenance and Authenticity (C2PA), que facilita a deteção de edições posteriores.
Adicionalmente, a Microsoft disponibiliza uma ferramenta pública de Verificação de Integridade e uma extensão de browser, permitindo que os consumidores verifiquem imagens e vídeos com facilidade, inclusive em plataformas como o LinkedIn.
Apoio ao combate aos deepfakes em contextos eleitorais
Com as eleições de 2024 a envolverem milhões de eleitores, a Microsoft disponibilizou a private preview das suas ferramentas a campanhas, organizações eleitorais e jornalistas.
Esta medida visa combater o uso indevido de IA em conteúdos políticos, proporcionando uma camada adicional de transparência e confiança nas fontes de informação. A Microsoft criou ainda um site onde candidatos podem denunciar deepfakes, assegurando um processo eleitoral mais seguro.
Dicas para identificar deepfakes
Além das ferramentas de verificação, a Microsoft recomenda que os utilizadores:
- Verifiquem a origem do conteúdo: Examinar as legendas, credenciais e a fonte original pode ajudar a confirmar a veracidade;
- Questionem a intenção: Avaliar se o conteúdo é informativo ou persuasivo auxilia na deteção de possíveis enganos;
- Identifiquem inconsistências visuais: Procurar erros comuns em imagens de IA, como figuras desfocadas e iluminação inconsistente.
Controlo de IA responsável nos produtos Microsoft
As ferramentas de Credenciais de Conteúdo já estão implementadas em diversos produtos Microsoft que utilizam IA generativa, como o Designer, o Copilot, o Paint e modelos selecionados no Azure OpenAI Service.
Estes produtos incluem detalhes como a origem da imagem, data de criação e a indicação de que a IA foi utilizada, promovendo um uso mais responsável da tecnologia. Em casos específicos, como o Copilot, a Microsoft introduziu controlos adicionais, como a desfocagem de rostos em imagens carregadas, para evitar o uso indevido de deepfakes.
Com estas iniciativas, a Microsoft procura construir um ecossistema digital mais seguro, onde a transparência e a integridade da informação prevaleçam.
Outros artigos interessantes: