Um juiz federal norte-americano impôs multas de 5.000 dólares a dois advogados e a uma firma de renome, devido à utilização inadequada da inteligência artificial.
O ChatGPT, uma ferramenta de IA, foi responsabilizado por apresentar investigação jurídica fictícia num processo que envolvia danos causados pela aviação.
O juiz P. Kevin Castel considerou que os advogados agiram de má-fé, mas reconheceu as desculpas apresentadas e as medidas corretivas tomadas. De acordo com Castel, embora seja comum utilizar ferramentas de inteligência artificial para obter assistência, os advogados têm a responsabilidade de garantir a precisão dos seus arquivos e desempenhar um papel de gatekeeping.
Num caso relacionado, um juiz do Texas também proibiu o uso do ChatGPT e de outras tecnologias de inteligência artificial generativa na redação de resumos legais, devido à possibilidade de a ferramenta de IA inventar fatos.
De acordo com o juiz, os advogados e a sua empresa, Levidow, Levidow & Oberman, P.C., abandonaram as suas responsabilidades ao apresentarem pareceres judiciais inexistentes, contendo citações e referências falsas criadas pelo ChatGPT. Além disso, continuaram a defender esses pareceres falsos, mesmo depois de as ordens judiciais terem questionado a sua validade.
A firma de advogados em questão afirmou que irá cumprir a ordem do juiz Castel, mas discorda respeitosamente da conclusão de que atuaram de má-fé. Apresentaram desculpas ao tribunal e ao cliente, argumentando que cometeram um erro de boa-fé ao confiar que uma peça de tecnologia não inventaria casos fictícios.
Apesar da decisão judicial, a empresa está a considerar a possibilidade de recorrer.
Apesar do investimento da Microsoft, cerca de mil milhões de dólares, na OpenAI, a empresa por detrás do ChatGPT, a ferramenta falhou em fornecer informações corretas. O chatbot sugeriu vários casos relacionados com acidentes de aviação, mas muitos deles eram inexistentes ou continham erros na identificação dos juízes e nas companhias aéreas envolvidas.
De acordo com a CBS, o juiz Castel destacou que uma das decisões falsas geradas pelo chatbot tinha algumas semelhanças superficiais com as decisões judiciais reais. No entanto, outras partes eram inconsistentes e continham jargões e informações sem sentido.
Outros artigos interessantes: