A Samsung decidiu proibir o uso do ChatGPT e outras inteligências artificiais (IA) após descobrir que um dos seus funcionários compartilhou informações confidenciais com o ChatGPT, de acordo com a Bloomberg. A empresa sul-coreana teme que a partilha de dados privados com chatbots populares, como o Bing e o Google Bard, possa levar à exposição pública dessa informação.
A proibição foi implementada nas instalações da Samsung para impedir que incidentes semelhantes ocorram no futuro. A recuperação de informações compartilhadas com chatbots alojados em servidores externos é difícil e, assim, corre-se o risco de serem expostas publicamente.
A Samsung enviou um comunicado aos colaboradores de uma das suas divisões mais importantes, informando a proibição do uso do ChatGPT e de sistemas similares de IA gerativa, devido aos riscos de segurança associados.
Restrição a dispositivos da empresa
Os funcionários da Samsung não poderão aceder a estas IA a partir de computadores, tablets e telemóveis fornecidos pela empresa, bem como nas suas redes internas. No entanto, o uso de ChatGPT e outras IA semelhantes ainda é permitido em dispositivos pessoais, desde que não se compartilhem informações confidenciais da empresa ou dados pessoais que possam afetar a Samsung.
Os colaboradores que não cumprirem esta nova regra poderão enfrentar consequências, incluindo a possibilidade de despedimento, conforme mencionado no comunicado enviado.
Proibição temporária e desenvolvimento de soluções internas
Esta proibição não significa que a Samsung rejeita totalmente o uso de IA. A empresa já está a trabalhar na criação das suas próprias inteligências artificiais para tradução e resumo de documentos, bem como para o desenvolvimento de software. Além disso, a Samsung prepara uma ferramenta para impedir o envio de informações confidenciais para servidores externos.
A proibição é temporária e será mantida até que estas medidas sejam implementadas. A decisão é bastante significativa, tendo em conta a relevância do ChatGPT na atualidade.
Outros artigos interessantes: