Enquanto a inteligência artificial (IA) avança a passos largos, os países enfrentam o desafio de encontrar formas eficazes de a regular. A falta de um enquadramento jurídico adaptado à complexidade e velocidade da evolução tecnológica tem gerado diferentes estratégias a nível internacional — e, por enquanto, pouco consenso. A recente Cimeira de Ação para a IA, realizada em Paris, tornou essa disparidade mais evidente, ao terminar com uma declaração centrada na inclusão e na abertura, sem abordar de forma concreta os riscos mais graves associados a esta tecnologia.
Com a ausência das assinaturas dos Estados Unidos e do Reino Unido na declaração final do evento, ficou claro que o debate global sobre a regulamentação da IA continua fragmentado.
EUA privilegiam a inovação e adiam a regulação
Os Estados Unidos continuam a optar por uma abordagem liberal no que toca à IA, com poucas normas federais específicas e grande ênfase em soluções orientadas pelo mercado. A regulamentação existente baseia-se sobretudo em diretrizes voluntárias, como o quadro de gestão de risco proposto pelo Instituto Nacional de Padrões e Tecnologia (NIST). A legislação relevante inclui o National AI Initiative Act e outras medidas pontuais, mas não existe ainda um regime unificado.
Em outubro de 2023, o então presidente Joe Biden assinou uma ordem executiva para promover uma IA segura e fiável, abrangendo desde infraestruturas críticas até cibersegurança. No entanto, esta foi revogada já em janeiro de 2025 pelo novo presidente, Donald Trump, sinalizando uma inversão para uma posição mais favorável à inovação e menos centrada em controlo. Ainda assim, vários estados norte-americanos avançaram com mais de 700 propostas legislativas sobre IA em 2024, o que mostra que o país não está alheio à necessidade de alguma regulamentação — mas procura fazê-lo sem travar o desenvolvimento.

União Europeia impõe regras mais apertadas
Em contraste, a União Europeia tem apostado numa estratégia preventiva. Aprovado em agosto de 2024, o AI Act é considerado o quadro legal mais abrangente sobre inteligência artificial à escala global. O regulamento baseia-se numa lógica de avaliação de risco: quanto maior o potencial impacto negativo de uma aplicação de IA, mais exigente será o seu controlo. Sistemas usados em áreas críticas como saúde ou transportes estão sujeitos a normas rigorosas, enquanto aplicações de baixo risco enfrentam requisitos mínimos.
O regulamento proíbe expressamente práticas como sistemas de pontuação social geridos por governos e aplica-se a qualquer actor que disponibilize soluções de IA dentro da UE, independentemente da origem geográfica do sistema. Apesar disso, há quem critique o modelo europeu por ser demasiado complexo e técnico, dificultando a sua implementação e afetando a competitividade da região.
Reino Unido tenta equilibrar segurança e flexibilidade
O Reino Unido posiciona-se num ponto intermédio entre os dois modelos. A sua abordagem é baseada em princípios, como a transparência e a justiça, mas é considerada mais “leve” em termos de aplicação prática. Instituições como o Information Commissioner’s Office assumem responsabilidades regulatórias nas suas áreas específicas, e foi criado o AI Safety Institute para avaliar a segurança de modelos avançados.
Embora o país tenha publicado um plano de ação para reforçar o desenvolvimento e uso de IA, o modelo britânico tem sido criticado por ter pouca capacidade de execução e por falta de coordenação entre diferentes sectores.
Caminho global ainda por definir
Vários outros países, como Canadá, Japão, China e Austrália, têm também procurado estratégias próprias. Enquanto o Canadá aposta num modelo de equilíbrio entre inovação e ética, o Japão foca-se num desenvolvimento centrado no ser humano. A China, por seu lado, adota uma posição mais intervencionista, exigindo que os modelos de IA estejam alinhados com valores políticos nacionais.
Apesar destas diferenças, há um ponto em comum: todos reconhecem a necessidade de uma cooperação internacional mais eficaz. Organizações como a OCDE e as Nações Unidas estão já a trabalhar para criar padrões globais, mas ainda falta consenso sobre como lidar com os riscos mais urgentes da IA sem comprometer o progresso tecnológico.
Com a tecnologia a evoluir tão rapidamente, o tempo para decisões coordenadas está a esgotar-se — e o desafio de encontrar esse equilíbrio está longe de estar resolvido.
Outros artigos interessantes: