A inteligência artificial (IA) trouxe muitas vantagens, mas também alguns perigos. Um exemplo recente é a falha de segurança detetada no Google Bard, que pode estar a atrair burlões aos serviços da gigante da tecnologia.
A armadilha do Bard
Esta falha permite que pessoas mal-intencionadas sejam mais criativas, na prática de phishing. Parece assustador, não é? E de facto é, pois, os resultados obtidos após vários testes efetuados por especialistas em cibersegurança são realmente preocupantes.
As grandes empresas de tecnologia estão cada vez mais presentes na indústria da IA, o que levanta questões de segurança. Como é que estas empresas treinam os seus modelos de IA? Que tipo de informação pode ser obtida através destes? Serão estas ferramentas apenas mais uma janela pela qual burlões e pessoas mal-intencionadas podem obter a informação de que necessitam para atacar outros?
Estas são questões pertinentes e preocupações crescentes que devem ser encaradas pelas empresas líderes na indústria da IA. Empresas como a OpenAI, a fundadora do ChatGPT, estão a treinar os seus modelos de IA para evitarem certos pedidos dos utilizadores. A Google, por sua vez, parece estar um pouco lenta a treinar o seu modelo de IA para entender e evitar certos pedidos.
Os perigos escondidos no Google Bard
A equipa de pesquisa em cibersegurança da Check Point descobriu uma falha no modelo de IA da Google. Esta investigação foi um comparativo entre o Google Bard e o ChatGPT, visando entender como o Bard se comparava em termos de segurança.
Durante este teste, a equipa estava atenta à forma como estes modelos de IA reagiam a certos pedidos. Antes da pesquisa, a equipa já sabia que o ChatGPT possui proteção de segurança contra respostas específicas, mas não tinham a certeza se o Google Bard possuía algo semelhante.
A equipa pediu ao Google Bard para produzir emails de phishing e outros dados maliciosos. Perguntando diretamente ao modelo de IA, não obtiveram resposta, mas ao reformular a pergunta, obtiveram várias respostas. Por outro lado, o ChatGPT identificou o mesmo pedido como ilegal, não dando qualquer resposta.
O facto de o Google Bard fornecer emails de phishing, keyloggers de malware e alguns códigos básicos de ransomware é preocupante. Burlões e pessoas mal-intencionadas podem utilizar os seus serviços para cometer crimes cibernéticos. Com esta ferramenta disponível para todos, não demorará muito até que pessoas mal-intencionadas comecem a usá-la para causar problemas na internet.
É urgente que a Google reforce a forma como previne que os utilizadores do Bard abusem dos seus serviços. Os modelos de IA gerativos podem ser úteis, mas também podem ser usados para fins nefastos. Dar a pessoas mal-intencionadas acesso a ferramentas de IA sem restrições só prejudica os utilizadores inocentes da internet.
Outros artigos interessantes: