Enquanto se acumulam ações judiciais contra companhias de inteligência artificial, uma corte federal nos Estados Unidos decidiu que a Anthropic, desenvolvedora do modelo Claude, não infringiu direitos autorais ao utilizar livros adquiridos de forma legal no treinamento de sua IA.
A sentença, proferida na segunda-feira (23) pelo juiz William Alsup, na Califórnia, considera que a prática está protegida pela doutrina do “uso justo” (“fair use”), que permite certos usos de obras protegidas sem necessidade de autorização.
Leia: Últimas vagas! Fernando e Sorocaba em Campinas!
Apesar disso, o processo segue em andamento. O magistrado determinou que a Anthropic ainda deverá responder, em outro julgamento, à acusação de incluir livros pirateados em sua base de dados — mesmo alegando que tais arquivos não foram usados para treinar o modelo.
Juiz reconhece “uso justo”
O processo foi aberto por um grupo de escritores que alega que a empresa usou indevidamente “centenas de milhares de obras protegidas por direitos autorais” na criação do Claude.
Na avaliação do juiz Alsup, os sistemas de linguagem não reproduzem trechos criativos dos livros originais nem replicam o estilo de autores específicos.
“A queixa dos autores não é diferente do que seria se eles reclamassem que treinar crianças em idade escolar para escrever bem resultaria em uma explosão de obras concorrentes”, escreveu o juiz.
Para ele, o uso feito pela Anthropic é suficientemente distinto para ser classificado como uso justo, já que a finalidade não seria copiar os livros, mas ensinar o modelo a entender linguagem humana.
O Claude faz parte de uma linha de modelos de linguagem de grande escala (LLMs) da Anthropic, concorrentes do ChatGPT, da OpenAI. Ele utiliza grandes volumes de texto para interpretar contextos e formular respostas.
Inclusive, a empresa recorreu ao próprio Claude durante sua defesa em outro processo, movido pela Universal Music Group.
Livros pirateados são outra história
Apesar do reconhecimento parcial, o juiz Alsup foi claro ao tratar da acusação de uso de material pirateado: a empresa ainda poderá ser responsabilizada.
Ele determinou que essa parte do caso seja julgada separadamente, para avaliar a inclusão de cópias ilegais na base de dados da Anthropic — ainda que a companhia alegue não tê-las utilizado no treinamento da IA.
“O fato de a Anthropic ter comprado posteriormente uma cópia de um livro que havia roubado da internet não a absolverá da responsabilidade pelo roubo, mas pode afetar a extensão dos danos estatutários”, afirmou Alsup.
Decisão pode influenciar outros processos
Mesmo com ressalvas, a sentença representa um passo importante para empresas que desenvolvem IA. Ela fortalece o entendimento de que é legal treinar modelos com obras obtidas de forma legítima, segundo a interpretação atual do “uso justo” nos Estados Unidos.
Outros processos relevantes ainda estão em curso, como a ação do jornal New York Times contra a OpenAI e a Microsoft, e poderão estabelecer novos parâmetros legais sobre os limites — ou permissões — para o uso de conteúdo protegido no desenvolvimento de modelos generativos.
Campanha Salarial começa no segundo semestre
A Campanha Salarial 2026 do Sindpd começa no segundo semestre deste ano e o seu lançamento promete ser em alto estilo! Vem aí o Sindpd On Fire, uma experiência inédita e ousada, exclusiva para sócios e contribuintes do sindicato e seus convidados!
Vale lembrar que é na campanha salarial que são definidas as reivindicações da categoria a serem levadas para a mesa de negociação com os patrões, para a celebração da próxima Convenção Coletiva de Trabalho (CCT).
O Sindpd vai promover o maior open churrasco do Brasil, com shows ao vivo com Fernando e Sorocaba em grandes encontros que prometem fazer história. Já estão confirmados dois eventos, em Campinas (16/08) e Sorocaba (19/10), e vem mais coisa por aí! (Acesse o site oficial do Sindpd On Fire e saiba tudo)
(Com informações de Tecno Blog)
(Foto: Reprodução/Freepik)