Um relatório interno do Google Threat Intelligence Group revelou esta semana que o Gemini foi utilizado por governos como o do Irão, Coreia do Norte e Rússia para operações de ciberespionagem e desenvolvimento de malware. Os dados, compilados entre 2023 e 2025, mostram padrões de utilização que vão desde ataques a infraestruturas críticas até esquemas de roubo de criptomoedas.
A investigação identificou 42 grupos associados a regimes autoritários que recorreram à ferramenta para fins ilícitos. “A IA tornou-se o multiplicador de força perfeito para atividades nefastas”, explicou um analista de segurança europeu sob anonimato. “O mesmo algoritmo que ajuda a detetar ameaças pode ser virado contra os defensores”.

Táticas de ataque apoiadas por inteligência artificial
- Phishing hiper-realista: agentes iranianos utilizaram o Gemini para criar campanhas de phishing direcionadas a funcionários de empresas de defesa ocidentais. A IA gerou conteúdos em língua inglesa com detalhes específicos sobre projetos militares, tornando as mensagens quase indistinguíveis de comunicações legítimas.
- Desenvolvimento de malware: códigos maliciosos desenvolvidos parcialmente pelo Gemini foram detetados em ataques a centrais energéticas na Ucrânia e em sistemas bancários do Sudeste Asiático. A Rússia destacou-se no uso da plataforma para aperfeiçoar ransomwares capazes de desativar protocolos de segurança redundantes.
- Análise de vulnerabilidades: a Coreia do Norte aplicou a tecnologia para identificar falhas em protocolos blockchain, permitindo o roubo de 120 milhões de dólares em criptomoedas apenas no primeiro trimestre de 2025.
O paradoxo da inteligência artificial defensiva
A equipa do Google reforça que 63% das interações com o Gemini relacionadas a segurança cibernética vêm de entidades legítimas a trabalhar na proteção de sistemas. Contudo, os mesmos recursos que permitem várias ações positivas, são os mesmos explorados por agentes mal-intencionados:
- Automatizar análise de códigos
- Simular cenários de ataque
- Gerar atualizações de segurança
Um porta-voz da empresa declarou à imprensa: “Implementamos salvaguardas éticas desde a fase de treino do modelo, mas os limites do aceitável variam conforme as jurisdições”. A afirmação refere-se às restrições geográficas impostas ao Gemini, contornadas através de redes privadas virtuais (VPNs) sofisticadas.
Porque a tecnologia facilita o crime
Existem três fatores bastante óbvios que ajudam a explicar a atração dos cibercriminosos por estas ferramentas:
- Desenvolvimento acelerado: tarefas que exigiam semanas de trabalho humano são concluídas em horas
- Anonimato operacional: a IA permite testar estratégias sem expor agentes ou infraestruturas físicas
- Escalabilidade: uma única prompt bem construída pode gerar variações de ataque para milhões de alvos
Como os países ocidentais estão a responder
A União Europeia acelerou a implementação do Artificial Intelligence Act, classificando sistemas como o Gemini como “tecnologia de risco limitado com aplicações de alto impacto”. Medidas concretas incluem, auditorias trimestrais obrigatórias, arquivos de interações suspeitas, e cooperação transfronteiriça para rastrear padrões de ataque.
Nos Estados Unidos, o Pentágono anunciou o projeto Argus — uma IA defensiva treinada especificamente para antecipar e neutralizar táticas desenvolvidas por modelos generativos adversários.
Ainda assim, uma importante questão permanece no ar… Até que ponto as empresas de tecnologia devem limitar o acesso global a ferramentas poderosas como o Gemini? O debate coloca em choque princípios de inovação aberta contra preocupações de segurança nacional, sem respostas consensuais à vista.
Enquanto isso, a recomendação para utilizadores comuns mantém-se clara:
- Ativa a autenticação de dois fatores em todos os serviços
- Desconfia de comunicações com erros subtis de linguagem
- Atualiza regularmente software e sistemas operativos
Outros artigos interessantes: