Um grupo de autores, incluindo Andrea Bartz, Charles Graeber e Kirk Wallace Johnson, deu entrada a uma ação coletiva contra a empresa de inteligência artificial Anthropic, no tribunal federal da Califórnia.
A acusação central é de que a Anthropic utilizou indevidamente os livros destes autores para treinar o seu chatbot de IA, Claude.
Alegações de uso indevido generalizado
Embora apenas três autores estejam nomeados no processo, a ação alega que a propriedade intelectual de centenas de milhares de outros autores também foi utilizada sem a devida autorização.
Os autores afirmam que a Anthropic se apropriou de versões piratas de suas obras e de outros autores para ensinar o chatbot a interagir e responder a estímulos humanos.
“Negócio multibilionário construído com base em roubo”
Na ação judicial, os autores fazem acusações severas, afirmando que a Anthropic “construiu um negócio multibilionário roubando centenas de milhares de livros protegidos por direitos autorais”.
Anthropic recusa-se a comentar
Um porta-voz da Anthropic confirmou que a empresa está ciente do processo e a avaliar a reclamação, mas recusou-se a fazer mais comentários, citando o litígio pendente. Um advogado que representa os autores também se recusou a comentar sobre o caso.
Controvérsia crescente em torno da IA e direitos autorais
Este processo junta-se a uma série de outras ações judiciais de alto perfil relacionadas a violações de direitos autorais por parte de criadores e artistas que acreditam que o seu material foi utilizado sem autorização para treinar sistemas de inteligência artificial generativa.
Empresas como a OpenAI, criadora do ChatGPT, e a Meta, proprietária do Facebook, também enfrentam processos semelhantes.
Pedidos dos autores
Os autores pedem uma proibição permanente que impeça a Anthropic de utilizar o seu trabalho, bem como uma indemnização monetária por danos, cujo valor não foi especificado.
No entanto, a proibição solicitada não impediria o uso indevido do trabalho de outros indivíduos nem impediria que outras organizações de treino em IA utilizassem o conteúdo dos autores.
Indústria musical também processa a Anthropic
No ano passado, editoras musicais entraram com um processo separado contra a Anthropic por usar letras de músicas protegidas por direitos autorais para treinar seus modelos de IA, o que as editoras consideraram um uso indevido do material.
Outros artigos interessantes: