A Alphabet alertou os seus funcionários sobre os riscos de privacidade e segurança associados ao uso de chatbots de inteligência artificial (IA).
O destaque vai para o Bard, chatbot de IA generativa criado e operado pela Google, do qual a Alphabet é proprietária, e para o ChatGPT da OpenAI, apoiado pela Microsoft.
Funcionários não devem partilhar informações confidenciais
A Alphabet instruiu os seus colaboradores a não introduzirem informações confidenciais no Bard, bem como noutros chatbots. A empresa manifestou preocupação com a possibilidade de revisores humanos poderem aceder às conversas entre os utilizadores e os chatbots, representando um risco para a privacidade pessoal e a potencial exposição de segredos comerciais.
Os chatbots, alimentados por IA, têm sido objeto de grande interesse nos últimos meses devido à sua notável capacidade de conversar de forma semelhante à humana e até de realizar tarefas como escrever ensaios e relatórios, bem como fazer testes académicos com sucesso.
No entanto, os revisores humanos podem ter acesso às conversas dos utilizadores, o que levanta preocupações em termos de privacidade e confidencialidade.
Não revelem informações sensíveis aos chatbots
Os chatbots, incluindo o Bard e o ChatGPT, são parcialmente treinados com base nas trocas de texto dos utilizadores. Isso significa que, com determinadas instruções, os chatbots podem potencialmente repetir informações confidenciais que foram transmitidas durante as conversas. A Alphabet está particularmente preocupada com essa possibilidade, tendo em conta a potencial exposição de segredos comerciais.
Na página do Bard, a Google adverte os utilizadores para não incluírem informações que possam levar à sua identificação pessoal ou à identificação de terceiros nas conversas com o chatbot. A empresa recolhe essas conversas, bem como informações sobre a utilização do produto, localização e comentários dos utilizadores, com o objetivo de melhorar os produtos e serviços Google.
Armazenamento de dados e medidas de privacidade
A Google afirma armazenar a atividade do Bard durante um período máximo de 18 meses, mas os utilizadores têm a opção de alterar esse período para 3 ou 36 meses nas suas contas Google. A fim de garantir a privacidade, as conversas do Bard são dissociadas de uma conta Google antes de serem analisadas por revisores humanos.
Embora o aviso da Alphabet esteja em vigor há algum tempo, recentemente foi expandido para orientar os funcionários a evitarem a utilização de códigos informáticos precisos gerados pelos chatbots. A empresa justifica essa medida ao afirmar que o Bard pode ocasionalmente fazer “sugestões de código indesejadas”, embora a ferramenta atual seja considerada útil na programação, noticia a Reuters.
Outras empresas também alertam sobre riscos de privacidade
Além da Alphabet, outras gigantes da tecnologia, como a Samsung, a Apple e a Amazon, também estão a alertar os seus funcionários sobre os riscos de privacidade e segurança relacionados ao uso de chatbots de IA. A Samsung emitiu recentemente uma instrução semelhante após alguns funcionários terem introduzido dados sensíveis relacionados com semicondutores no ChatGPT.
Essas empresas estão a adotar uma política interna para proteger a privacidade dos seus funcionários e evitar possíveis violações de segurança ao utilizar chatbots de IA.
Outros artigos interessantes: