O acordo Bartz v. Anthropic: Do fair use à pirataria em dados de IA
Este artigo analisa o acordo Bartz v. Anthropic (US$ 1,5 bi), marco que redefine o debate sobre IA e direitos autorais, da legalidade do treinamento à proveniência dos dados.
terça-feira, 9 de setembro de 2025
Atualizado às 11:13
1. Introdução: O ponto de inflexão de US$ 1,5 Bilhão
No dia 5 de setembro de 2025, os autos do processo Bartz et al. v. Anthropic PBC, em trâmite na Corte Distrital do Norte da Califórnia, registraram um documento que reverberou por toda a indústria de tecnologia e pelo universo jurídico da propriedade intelectual. As partes anunciaram a celebração de um acordo para encerrar uma ação coletiva que acusava a Anthropic, uma das mais proeminentes desenvolvedoras de IA - inteligência artificial generativa, de violação massiva de direitos autorais1. O valor do acordo, um fundo não reversionário de no mínimo US$ 1,5 bilhão, estabeleceu-o imediatamente como o maior ressarcimento em matéria de direitos autorais publicamente conhecido na história, superando qualquer outra ação coletiva ou caso individual levado a julgamento final2 3. Destinado a compensar os titulares de direitos de aproximadamente 500.000 obras literárias, o montante transcende a mera resolução de uma disputa privada, funcionando como um sinalizador sísmico para um setor que, até então, operava em uma zona de considerável incerteza jurídica.1 3
Este artigo defende a tese de que o acordo no caso Bartz v. Anthropic, catalisado por uma decisão interlocutória crucial proferida pelo Juiz William Alsup, estabelece um precedente de fato (de facto) que redefine fundamentalmente a análise de risco e o paradigma de conformidade para empresas de IA. O epicentro do debate jurídico, que por anos se concentrou na natureza supostamente "transformativa" do ato de treinar modelos de linguagem, desloca-se agora, de forma inequívoca, para a questão da "proveniência dos dados". A distinção entre a utilização de fontes lícitas e ilícitas para a aquisição de dados de treinamento emerge como a linha demarcatória central da legalidade, relegando a complexa discussão sobre a doutrina do fair use a um plano secundário quando a origem do material é manifestamente ilegal. A mensagem enviada à indústria é clara e contundente: a extração de conteúdo protegido para treinar IA tem consequências, e a origem desses dados importa tanto, ou mais, do que o uso que se faz deles.4 5
A relevância deste acordo não reside apenas em seu valor monetário, mas em sua arquitetura estratégica. A Anthropic, ao aceitar um desembolso de tal magnitude, não apenas compensou os autores, mas também realizou uma manobra jurídica calculada. A empresa efetivamente "comprou" a preservação de um precedente que lhe era favorável - a parte da decisão do Juiz Alsup que considerou o treinamento com dados legalmente adquiridos como fair use - ao mesmo tempo em que pagou para evitar um julgamento final que criaria um precedente judicial devastador sobre o uso de dados pirateados4 6 7. Conforme observado por Matthew Prince, CEO da Cloudflare, o pagamento representa o custo "para manter um julgamento que você gosta como o precedente legal dominante"2. Essa dinâmica revela uma nova fase na interação entre a indústria de IA e o direito autoral, marcada por litígios estratégicos e acordos cirúrgicos que moldarão o futuro da inovação e da criação.
Para dissecar as múltiplas camadas deste evento transformador, este artigo procederá da seguinte forma. Primeiramente, será realizada uma análise da anatomia do acordo, detalhando seus termos financeiros, as obrigações impostas à Anthropic e, crucialmente, o escopo limitado da liberação de responsabilidade, que deixa intacta a questão dos outputs gerados pela IA. Em seguida, o artigo se aprofundará na doutrina do fair use, examinando a decisão bifurcada do Juiz Alsup e contrastando-a com o precedente seminal Authors Guild v. Google, a fim de demonstrar como Bartz reconfigura os contornos dessa defesa. Posteriormente, o acordo será contextualizado no ecossistema global de litígios sobre IA, comparando-o a casos pendentes como The New York Times v. OpenAI e Getty Images v. Stability AI. Por fim, o trabalho explorará a fronteira jurídica ainda não resolvida da responsabilidade pelos outputs, estabelecendo um contraponto entre a abordagem norte-americana e o debate legislativo em curso no Brasil, para oferecer uma perspectiva abrangente sobre os caminhos futuros da regulação da IA.
2. Desenvolvimento
2.1. A anatomia do acordo: Entre a pressão existencial e a racionalidade econômica
A análise minuciosa dos termos do acordo, conforme delineados no documento "Unopposed Motion for Preliminary Approval of Class Settlement" submetido à corte, revela uma estrutura cuidadosamente negociada que vai muito além de uma simples transação financeira1. Ela reflete um cálculo preciso de risco, uma admissão tácita de responsabilidade por condutas específicas e uma estratégia deliberada para conter danos e delimitar futuras frentes de batalha legal.
Os termos financeiros são, por si sós, notáveis. A Anthropic se comprometeu a criar um fundo de acordo de, no mínimo, US$ 1,5 bilhão, com a característica de ser "não reversionário". Isso significa que a totalidade do montante, acrescido de juros que podem chegar a US$ 126,4 milhões, será distribuída aos membros da classe, independentemente do número de reivindicações apresentadas, garantindo que a empresa não se beneficie de uma baixa adesão ao acordo1. O valor representa um pagamento bruto de aproximadamente US$ 3.000 por obra, um número que deve ser contextualizado. Sob a lei de direitos autorais dos EUA (17 U.S.C. § 504(c)), os danos estatutários variam de um mínimo de US$ 750 a um máximo de US$ 30.000 por obra infringida, podendo chegar a US$ 150.000 em caso de infração dolosa (willful infringement)1. O valor acordado, quatro vezes superior ao mínimo legal e quinze vezes maior que o mínimo para infração inocente (US$ 200), sinaliza o reconhecimento, por parte da Anthropic, do risco substancial de uma condenação por conduta dolosa, dado que a empresa utilizou conscientemente obras de "bibliotecas-sombra" como Library Genesis (LibGen) e Pirate Library Mirror (PiLiMi).1 2 8
Além do pagamento, o acordo impõe uma obrigação de natureza reparatória e simbólica: a Anthropic deve destruir os datasets originais obtidos da LibGen e PiLiMi, bem como quaisquer cópias derivadas, sujeita a obrigações de preservação para outros litígios1. Essa cláusula representa um repúdio formal à pirataria como fonte de dados para treinamento de IA, estabelecendo uma norma de conduta para a indústria. Contudo, o aspecto mais sofisticado e juridicamente significativo do acordo reside no escopo da liberação de responsabilidade (release). A quitação concedida pelos autores é notavelmente restrita. Ela se aplica exclusivamente a condutas passadas, ocorridas até 25 de agosto de 2025, e está limitada às obras específicas que compõem a "Works List" e aos atos de aquisição e uso dos datasets piratas para treinamento.¹
Crucialmente, o acordo exclui de forma explícita qualquer responsabilidade, passada ou futura, decorrente dos outputs - os conteúdos gerados pelos modelos de IA da Anthropic1. Essa exclusão é o cerne da estratégia de contenção de danos da empresa. A Anthropic, de fato, isolou e resolveu o problema do input ilegal, pagando um preço altíssimo para encerrar essa frente de batalha. Ao mesmo tempo, preservou integralmente suas defesas para a próxima e inevitável onda de litígios, que se concentrará na legalidade dos outputs. A empresa evitou que a admissão de culpa pela fonte dos dados contaminasse a futura argumentação de que os resultados gerados são obras novas e transformadoras, protegidas pelo fair use. Essa estrutura revela uma estratégia de contenção em duas fases: a primeira batalha, sobre a proveniência dos dados, foi perdida e seu custo foi internalizado; a segunda, sobre a responsabilidade pelo resultado, foi estrategicamente adiada.
Essa decisão de celebrar o acordo foi impulsionada pelo que a própria Anthropic descreveu como uma situação de "death knell" (morte anunciada)4 5. A empresa enfrentava uma exposição a danos estatutários que, teoricamente, poderia se aproximar de US$ 1 trilhão (considerando 7 milhões de livros, conforme estimativas iniciais, multiplicados por US$ 150.000 por obra)6 12. Diante de um risco existencial dessa magnitude, o acordo de US$ 1,5 bilhão, embora colossal, representa menos de 0,2% da exposição máxima e se torna uma decisão economicamente racional para garantir a sobrevivência e a continuidade operacional da empresa.2
2.2. A doutrina do Fair Use em xeque: A distinção entre treinamento e pirataria
O catalisador para o acordo bilionário foi a decisão interlocutória proferida pelo Juiz William Alsup em 23 de junho de 20257 10 11. Essa decisão, de notável clareza e pragmatismo, operou uma cisão na análise do fair use que alterou o cálculo de risco para a Anthropic e para toda a indústria. O juiz não ofereceu uma resposta monolítica à pergunta "treinar IA com obras protegidas é fair use?", mas sim uma resposta bifurcada, dependente da origem do material de treinamento.
Por um lado, em uma vitória significativa para os desenvolvedores de IA, o Juiz Alsup considerou que o uso de livros legalmente adquiridos (comprados e subsequentemente digitalizados pela própria empresa) para treinar o modelo Claude era "exceedingly transformative" (extremamente transformador) e, portanto, se enquadrava na proteção do fair use4 7. A sua fundamentação evocou uma poderosa analogia: a IA, nesse contexto, se assemelha a um "leitor aspirante a escritor" que estuda o cânone literário não para replicar ou suplantar as obras existentes, mas para "virar uma esquina difícil e criar algo diferente"4 5. Essa parte da decisão reforçou a tese de que o propósito do treinamento de IA - extrair padrões, estilos e informações não expressivas para habilitar a geração de conteúdo novo - é fundamentalmente distinto do propósito original das obras, que é a leitura para fruição expressiva.
Por outro lado, a decisão foi implacável ao rechaçar a defesa de fair use para o download e armazenamento de milhões de livros de fontes piratas como a LibGen. O juiz argumentou que a ilicitude do ato de aquisição inicial contamina todo o processo subsequente, tornando a defesa de fair use inaplicável ab initio. A sua afirmação de que "você não pode simplesmente se abençoar dizendo que tem um propósito de pesquisa e, portanto, pegar qualquer livro que quiser" ("You can't just bless yourself by saying I have a research purpose and, therefore, go and take any textbook you want") tornou-se emblemática dessa visão4 5 8. O tribunal considerou que a criação de uma "biblioteca central de cópias piratas" constituía uma infração autônoma e não transformadora, independentemente do uso que seria dado a essa biblioteca posteriormente.11 12 13
Essa distinção estabelece uma dialética fundamental com o precedente que, por mais de uma década, serviu como o principal pilar de sustentação para a cópia em massa de dados por empresas de tecnologia: Authors Guild v. Google, Inc.13 14 15. No caso Google Books, o Segundo Circuito de Apelações dos EUA validou a digitalização de milhões de livros por parte do Google como fair use, com base em seu propósito transformador de criar uma ferramenta de busca sem precedentes, que exibia apenas pequenos fragmentos ("snippets") das obras e não substituía o mercado original dos livros14 16. A decisão em Bartz não invalida Google Books, mas impõe-lhe uma condição precedente crucial. A análise comparativa revela a diferença determinante: enquanto o Google obteve os livros de parceiros legítimos, como grandes bibliotecas universitárias, a Anthropic recorreu a "shadow libraries", fontes notórias de pirataria6 8. A decisão de Alsup, portanto, estabelece que a premissa de um uso transformador, central em Google Books, só pode ser legitimamente invocada se o passo anterior - a aquisição do material - for lícito. A ilicitude na origem atua como uma barreira intransponível, um vício insanável que impede o avanço para a análise do propósito do uso.
Com isso, a decisão de Alsup, e por consequência o acordo que ela precipitou, efetivamente cria uma "Doutrina da Proveniência" para o direito autoral na era da IA. A legalidade do treinamento de modelos deixa de ser uma questão monolítica e passa a ser avaliada em um processo de duas etapas. A primeira e eliminatória pergunta é: a aquisição dos dados foi lícita? Se a resposta for negativa, a análise se encerra com a constatação da infração. Apenas se a resposta for afirmativa, avança-se para a segunda pergunta: o uso dado a esses dados foi suficientemente transformador para se qualificar como fair use?
Essa nova estrutura analítica tem implicações profundas para a economia da IA, pois cria uma clara distinção no valor dos dados: datasets com proveniência limpa e devidamente licenciados tornam-se ativos estratégicos e premium, enquanto vastos repositórios de dados de origem incerta ou ilícita, como muitos dos que foram usados para treinar os primeiros modelos de linguagem, transformam-se em passivos jurídicos de alto risco. Isso inevitavelmente impulsionará o desenvolvimento de um mercado de licenciamento de dados mais robusto e de tecnologias de auditoria de datasets, alterando a cadeia de suprimentos da indústria de IA de forma permanente.
2.3. O efeito dominó: O acordo no ecossistema global de litígios sobre IA e copyright
O acordo da Anthropic não pode ser compreendido como um evento isolado. Ele é, na verdade, uma peça-chave em um complexo quebra-cabeça de litígios em escala global que, em conjunto, estão definindo as regras do jogo para a interação entre IA e propriedade intelectual. Cada um desses processos ataca a defesa de fair use de um ângulo distinto, submetendo a doutrina a um "teste de estresse" multifacetado. O acordo em Bartz representa a primeira grande fratura nesse teste, demonstrando que a defesa cede completamente sob a pressão da pirataria.
Uma análise comparativa com outros litígios proeminentes revela a natureza complementar dessas batalhas legais. O caso The New York Times v. OpenAI/Microsoft aborda precisamente a questão que o acordo da Anthropic deixou em aberto: a responsabilidade pelos outputs17 18. A alegação central do NYT é que o ChatGPT pode reproduzir trechos substanciais de seus artigos, funcionando como um substituto de mercado direto que canibaliza seu modelo de negócio baseado em assinaturas. A defesa da OpenAI, ecoando a do Google, foca na natureza transformadora do uso. Este caso, portanto, levará a doutrina do fair use ao seu limite, forçando os tribunais a decidir se a geração de conteúdo concorrente pode ser considerada uma transformação legítima.
Já o processo Getty Images v. Stability AI introduz outras duas dimensões de complexidade. Primeiramente, ele se concentra em mídia visual, onde o argumento da "transformação" é visualmente mais difícil de sustentar, especialmente quando os outputs mantêm elementos estilísticos e composicionais das imagens originais20 21. Em segundo lugar, o caso adiciona a alegação de violação de marca registrada, pois as imagens geradas pela Stability AI por vezes replicam a marca d'água da Getty, um indício quase irrefutável de cópia direta do dataset de treinamento21 22. Além disso, o litígio levanta intrincadas questões de jurisdição, uma vez que o treinamento do modelo pode ocorrer em um país com regras de exceção de direitos autorais mais flexíveis, enquanto a infração (o uso comercial do modelo) ocorre em outro.
Complementando esses casos de grande porte, há uma miríade de ações movidas por criadores individuais e grupos menores, como o processo da comediante Sarah Silverman contra a OpenAI e a ação coletiva de artistas visuais contra Midjourney e Stability AI17 23 24 25. Embora com menor poderio financeiro, essas ações aumentam a pressão jurídica e reputacional sobre as empresas de IA, demonstrando a ampla insatisfação da comunidade criativa.
A tabela a seguir sintetiza as características distintivas desses litígios, permitindo uma visualização clara do cenário estratégico.
|
Caso |
Partes |
Alegação Central |
Principal Defesa |
Ponto Jurídico Distintivo |
Status (Set. 2025) |
|---|---|---|---|---|---|
|
Bartz v. Anthropic |
Autores (classe) vs. Anthropic |
Violação de direitos autorais pelo treinamento com livros de fontes piratas (LibGen/PiLiMi). |
Fair use (uso transformador). |
Foco na ilicitude da aquisição dos dados (input). |
Acordo de US$ 1,5 bilhão. |
|
NYT v. OpenAI/Microsoft |
The New York Times vs. OpenAI & Microsoft |
Violação de direitos autorais pela reprodução de artigos nos outputs, atuando como substituto de mercado. |
Fair use (uso transformador); negação de cópia substancial. |
Foco no dano ao mercado causado pelo output. |
Em andamento. |
|
Getty Images v. Stability AI |
Getty Images vs. Stability AI |
Violação de direitos autorais e de marca registrada pelo treinamento com imagens e pela geração de outputs que replicam conteúdo e marcas d'água. |
Fair use; negação de infração jurisdicionalmente relevante. |
Foco em mídia visual, violação de marca e questões de jurisdição internacional. |
Em andamento. |
|
Andersen v. Stability AI/Midjourney |
Artistas (classe) vs. Stability AI & Midjourney |
Violação de direitos autorais em massa pelo treinamento com bilhões de imagens da web sem consentimento. |
Fair use; ausência de cópia substancial nos outputs. |
Foco na escala massiva da extração de dados e na proteção de estilos artísticos. |
Em andamento. |
Este ecossistema de litígios funciona como uma estratégia de cerco. Cada processo ataca um flanco diferente da cidadela do fair use. Bartz atacou a fundação: a fonte dos dados. NYT ataca o muro principal: o dano ao mercado. Getty ataca as torres de vigia: a falta de transformação visual e a violação de marca. O acordo da Anthropic demonstra que o flanco da proveniência dos dados era o mais frágil e indefensável. A indústria cedeu nesse ponto para poder concentrar suas defesas nos outros, que são juridicamente mais contestáveis e onde a argumentação de transformação ainda possui alguma força. O resultado provável deste cenário não será uma única decisão judicial que resolva a questão da IA e do copyright de uma vez por todas, mas sim um mosaico de resultados - acordos, decisões parciais, talvez até cisões entre circuitos judiciais - que, em conjunto, criarão um ambiente de conformidade complexo e fragmentado. A era de uma defesa única e universal de fair use para o treinamento de IA chegou ao fim.
2.4. A fronteira aberta: Responsabilidade pelos Outputs e o contraponto do Direito brasileiro
A arquitetura do acordo em Bartz v. Anthropic foi deliberadamente projetada para deixar intocada a questão mais espinhosa e futura do debate: quem é legalmente responsável quando um modelo de IA gera um conteúdo que infringe os direitos autorais de terceiros? Ao excluir expressamente os outputs do escopo da liberação de responsabilidade, as partes adiaram, mas não eliminaram, essa controvérsia fundamental1. Esta lacuna representa a fronteira aberta do direito autoral na era generativa, um campo onde a doutrina jurídica ainda busca seus fundamentos.
O debate doutrinário nos Estados Unidos sobre a natureza dos outputs é intenso. São eles meras cópias ou reproduções do material de treinamento? São obras derivadas, que se baseiam em obras preexistentes? Ou representam uma categoria sui generis de criação? A resposta a essa pergunta está intrinsecamente ligada ao requisito de "autoria humana" como condição para a proteção autoral. O U.S. Copyright Office, apoiado por decisões judiciais como Thaler v. Perlmutter, tem mantido a posição de que obras geradas de forma autônoma por uma máquina, sem intervenção criativa humana significativa, não são passíveis de proteção por direitos autorais26 27 28. Isso, contudo, não resolve a questão da infração: um output não protegido por direito autoral ainda pode violar o direito autoral de uma obra humana preexistente se for substancialmente similar a ela.
Neste ponto, a comparação com o ordenamento jurídico brasileiro se torna particularmente elucidativa. A legislação brasileira de direitos autorais (lei 9.610/1998) não incorpora a doutrina do fair use de forma ampla como o sistema norte-americano. As exceções e limitações ao direito de autor são taxativamente previstas e de interpretação restritiva. Consequentemente, o debate no Brasil, impulsionado pelo PL 2338/23, que visa regular a IA, não se concentra em exceções, mas sim em mecanismos de remuneração compensatória. A proposta em discussão no Congresso Nacional tende a favorecer a criação de um direito de remuneração para os titulares de direitos autorais por todo e qualquer uso de suas obras para treinamento de IA (input), e potencialmente também pela geração de novos conteúdos (output).
Essa divergência de abordagens reflete um choque filosófico fundamental. O sistema norte-americano, baseado em uma exceção ampla e flexível como o fair use, é binário: ou o uso é permitido e gratuito, ou é uma infração sujeita a danos11 31. Em contrapartida, o modelo de remuneração, como o proposto no Brasil e em discussão na União Europeia, não proíbe o uso, mas o condiciona a uma compensação financeira, operando de forma análoga a um sistema de licenciamento compulsório ou de gestão coletiva de direitos. Essa abordagem, embora potencialmente mais onerosa para a inovação e criticada por acadêmicos como Juliano Maranhão por poder afastar investimentos, oferece maior segurança jurídica e previsibilidade, evitando batalhas judiciais prolongadas sobre os contornos fluidos do fair use.
Paradoxalmente, o acordo da Anthropic, embora gestado no seio do sistema de fair use, na prática, aproxima o resultado do modelo de remuneração. Ao estabelecer um "preço" de US$ 3.000 por obra para o uso indevido, o acordo funcionou como um mecanismo de licenciamento retroativo e punitivo. Diante da incerteza e do risco catastrófico do litígio, a Anthropic optou pela certeza de um pagamento, um comportamento que o mercado pode vir a replicar. É possível que a própria dinâmica de mercado, impulsionada pelo risco legal, esteja criando uma solução híbrida que a legislação ainda não formalizou: o fair use pode continuar a proteger usos de baixo risco e em pequena escala, mas o licenciamento e a remuneração se tornarão a norma para o treinamento em larga escala com dados comerciais, independentemente da doutrina jurídica formalmente aplicável. O acordo da Anthropic pode ser o primeiro grande indicativo dessa convergência pragmática entre dois sistemas jurídicos aparentemente antagônicos.
3. Conclusão
O acordo de US$ 1,5 bilhão no caso Bartz v. Anthropic é muito mais do que a resolução de uma disputa de alto valor. Ele representa um evento paradigmático que reconfigurou o cenário da propriedade intelectual para a inteligência artificial. A tese central defendida neste artigo é que o acordo, precipitado por uma decisão judicial que distinguiu a legalidade do treinamento com base na origem dos dados, consagrou a "Doutrina da Proveniência" como o fator crítico na análise de risco e conformidade para a indústria de IA. A questão deixou de ser se o ato de treinar é transformador para se tornar se a fonte dos dados é legítima. A resposta a essa primeira pergunta agora condiciona toda a análise subsequente.
As implicações futuras dessa mudança são profundas e multifacetadas. Para a indústria de IA, a era da extração de dados em massa e sem questionamentos chegou ao fim. A necessidade de uma "due diligence de dados" rigorosa, com a verificação da cadeia de titularidade e licenciamento, torna-se um imperativo de governança corporativa. A busca por datasets "limpos" e a celebração de acordos de licenciamento em larga escala com editoras, agências de notícias e bancos de imagens se tornarão práticas padrão, não opcionais4 5. Isso inevitavelmente aumentará os custos de desenvolvimento, podendo criar barreiras de entrada para startups e favorecer os grandes players de tecnologia que possuem capital e infraestrutura para negociar e gerenciar esses licenciamentos em escala.
Para os titulares de direitos autorais, o acordo representa um fortalecimento sem precedentes de sua posição de barganha. O valor de referência de US$ 3.000 por obra estabelecido no acordo da Anthropic servirá como um benchmark poderoso em futuras negociações de licenciamento, fornecendo um argumento tangível para a valoração de seus acervos como ativos essenciais para a economia da IA2. Autores, artistas e empresas de mídia agora possuem um precedente de mercado que quantifica o custo do uso não autorizado, transformando o que era uma reivindicação abstrata de direitos em uma alavancagem econômica concreta.
Para o Direito, o acordo ilumina o caminho para as próximas batalhas. Com a questão do input de dados piratas largamente resolvida (como sendo inequivocamente ilegal), o foco da jurisprudência e da legislação se deslocará para a fronteira ainda mais complexa dos outputs. Futuros litígios, como o do New York Times, e novas legislações, como o PL 2338/23 no Brasil, terão o desafio de definir os limites da autoria, da obra derivada e da responsabilidade em um mundo onde a criação de conteúdo é cada vez mais mediada por algoritmos. Questões sobre a proteção de outputs, a responsabilidade do desenvolvedor versus a do usuário, e a possibilidade de modelos de remuneração se tornarão centrais.
Em última análise, o caso Bartz v. Anthropic demonstra o desafio contínuo de adaptar estruturas jurídicas concebidas para a era analógica a uma realidade digital e generativa. O acordo resolveu uma disputa específica, mas, ao fazê-lo, apenas iluminou a vastidão do território jurídico que ainda precisa ser explorado e mapeado. A busca por um equilíbrio sustentável entre o incentivo à inovação tecnológica e a proteção da criação intelectual exigirá um diálogo constante e sofisticado entre juristas, tecnólogos, criadores e legisladores. O precedente de fato estabelecido pela Anthropic não é o fim da história, mas o fim do começo de uma nova e complexa era para o direito da propriedade intelectual.
_______
Referências
1 BARTZ et al. v. Anthropic PBC. Unopposed Motion for Preliminary Approval of Class Settlement. Case No. 3:24-cv-05417-WHA. United States District Court for the Northern District of California, 5 set. 2025.
2 PPC LAND. Anthropic agrees to $1.5 billion settlement in largest copyright case. PPC Land, 5 set. 2025. Disponível em: https://ppc.land/anthropic-agrees-to-1-5-billion-settlement-in-largest-copyright-case/. Acesso em: 7 set. 2025.
3 THE TIMES OF INDIA. Amazon-backed startup agrees to pay $1.5 billion to authors for using pirated books to train AI, says 'we remain committed to...'. The Times of India, 7 set. 2025. Disponível em: https://timesofindia.indiatimes.com/technology/tech-news/amazon-backed-startup-agrees-to-pay-1-5-billion-to-authors-for-using-pirated-books-to-train-ai-says-we-remain-committed-to/articleshow/123738016.cms. Acesso em: 7 set. 2025.
4 THE NATIONAL LAW REVIEW. Why Anthropic's Copyright Settlement Changes the Rules for AI Training. The National Law Review, 7 set. 2025. Disponível em: https://natlawreview.com/article/why-anthropics-copyright-settlement-changes-rules-ai-training. Acesso em: 7 set. 2025.
5 JONES WALKER LLP. Why Anthropic's Copyright Settlement Changes the Rules for AI Training. Jones Walker LLP, 5 set. 2025. Disponível em: https://www.joneswalker.com/en/insights/blogs/ai-law-blog/why-anthropics-copyright-settlement-changes-the-rules-for-ai-training.html?id=102l0z0. Acesso em: 7 set. 2025.
6 STERNE KESSLER GOLDSTEIN & FOX. From Trillion-Dollar Risk to Resolution: Settlement in the Anthropic Authors Class Action. Sterne Kessler, 28 ago. 2025. Disponível em: https://www.sternekessler.com/news-insights/client-alerts/ip-hot-topic-from-trillion-dollar-risk-to-resolution-settlement-in-the-anthropic-authors-class-action/. Acesso em: 7 set. 2025.
7 AKIN GUMP STRAUSS HAUER & FELD LLP. District Court Rules AI Training Can Be Fair Use in Bartz v. Anthropic. Akin, [s.d.]. Disponível em: https://www.akingump.com/en/insights/ai-law-and-regulation-tracker/district-court-rules-ai-training-can-be-fair-use-in-bartz-v-anthropic. Acesso em: 7 set. 2025.
8 TERRA. Anthropic vai pagar US$ 1,5 bilhão por violação de direitos autorais para treinar IA. Terra, [s.d.]. Disponível em: https://www.terra.com.br/byte/anthropic-vai-pagar-us-15-bilhao-por-violacao-de-direitos-autorais-para-treinar-ia,5e4968989938f0a013d655e12a71d60bzo2brjsr.html. Acesso em: 7 set. 2025.
9 PUBLISHNEWS. Anthropic diz que chegou a acordo coletivo com autores que alegavam violação de direitos autorais. PublishNews, 27 ago. 2025. Disponível em: https://www.publishnews.com.br/materias/2025/08/27/anthropic-diz-que-chegou-a-acordo-coletivo-com-autores-que-alegavam-violacao-de-direitos-autorais. Acesso em: 7 set. 2025.
10 BAKERHOSTETLER. Bartz v. Anthropic. BakerHostetler, [s.d.]. Disponível em: https://www.bakerlaw.com/bartz-v-anthropic/. Acesso em: 7 set. 2025.
11 JACKSON WALKER. Federal Courts Find Fair Use in AI Training: Key Takeaways from... Meta and Bartz v. Anthropic. JW News & Insights, 11 jul. 2025. Disponível em: https://www.jw.com/news/insights-kadrey-meta-bartz-anthropic-ai-copyright/. Acesso em: 7 set. 2025.
12 AUTHORS ALLIANCE. Bartz v. Anthropic: A Preliminary Look at What LibGen Books May Be Included in the Class Action. Authors Alliance, 5 set. 2025. Disponível em: https://www.authorsalliance.org/2025/09/05/bartz-v-anthropic-a-preliminary-look-at-what-libgen-books-may-be-included-in-the-class-action/. Acesso em: 7 set. 2025.
13 AUTHORS GUILD v. Google, Inc. No. 13-4829 (2d Cir. 2015). Justia, 16 out. 2015. Disponível em: https://law.justia.com/cases/federal/appellate-courts/ca2/13-4829/13-4829-2015-10-16.html. Acesso em: 7 set. 2025.
14 ASSOCIATION OF RESEARCH LIBRARIES. Second Circuit Affirms Fair Use in Google Books Case. ARL Blog, 16 out. 2015. Disponível em: https://www.arl.org/blog/second-circuit-affirms-fair-use-in-google-books-case/. Acesso em: 7 set. 2025.
15 LOEB & LOEB LLP. The Authors Guild v. Google, Inc. Loeb & Loeb, out. 2015. Disponível em: https://www.loeb.com/en/insights/publications/2015/10/the-authors-guild-v-google-inc. Acesso em: 7 set. 2025.
16 U.S. COPYRIGHT OFFICE. Authors Guild v. Google, Inc., 804 F.3d 202 (2d Cir. 2015). Fair Use Index. Disponível em: https://www.copyright.gov/fair-use/summaries/authorsguild-google-2dcir2015.pdf. Acesso em: 7 set. 2025.
17 CHEN, Nicole. Stolen Stories or Fair Use? The New York Times v. OpenAI. Columbia Undergraduate Law Review, 9 jun. 2025. Disponível em: https://www.culawreview.org/ddc-x-culr-1/nyt-v-openai-and-microsoft. Acesso em: 7 set. 2025.
18 SUNSTEIN LLP. The New York Times v. OpenAI: The Biggest IP Case Ever. Sunstein LLP, [s.d.]. Disponível em: https://www.sunsteinlaw.com/publications/the-new-york-times-v-openai-the-biggest-ip-case-ever. Acesso em: 7 set. 2025.
19 PINSENT MASONS. Getty Images v Stability AI: why the remaining copyright claims are significant. Pinsent Masons, 15 jul. 2025. Disponível em: https://www.pinsentmasons.com/out-law/analysis/getty-images-v-stability-ai-copyright-claims-significance. Acesso em: 7 set. 2025.
20 A&O SHEARMAN. Training and deploying AI models around the world: The territorial issues at stake in Getty Images v Stability AI. A&O Shearman, [s.d.]. Disponível em: https://www.aoshearman.com/en/insights/training-and-deploying-ai-models-around-the-world-the-territorial-issues-at-stake-in-getty-images. Acesso em: 7 set. 2025.
21 BAKERHOSTETLER. Getty Images v. Stability AI. BakerHostetler, [s.d.]. Disponível em: https://www.bakerlaw.com/getty-images-v-stability-ai/. Acesso em: 7 set. 2025.
22 KLA ADVOGADOS. Direitos autorais e inteligência artificial: a criação de conteúdo em xeque. KLA Advogados, [s.d.]. Disponível em: https://klalaw.com.br/direitos-autorais-inteligencia-artificial-criacao-conteudo/. Acesso em: 7 set. 2025.
23 CANALTECH. Ferramentas de arte de IA são alvo de processo por violação de direitos autorais. Canaltech, [s.d.]. Disponível em: https://canaltech.com.br/inteligencia-artificial/ferramentas-de-arte-de-ia-sao-alvo-de-processo-por-violacao-de-direitos-autorais-236178/. Acesso em: 7 set. 2025.
24 FAST COMPANY BRASIL. Hollywood x IA: Disney e Universal processam Midjourney. Fast Company Brasil, [s.d.]. Disponível em: https://fastcompanybrasil.com/tech/hollywood-x-ia-disney-e-universal-processam-midjourney/. Acesso em: 7 set. 2025.
25 INVENTOR MIGUEL. Artistas processam Midjourney e Stability AI por uso não autorizado de imagens e estilos. Inventor Miguel, [s.d.]. Disponível em: https://www.inventormiguel.com/post/artistas-processam-midjourney-e-stability-ai-por-uso-nao-autorizado-de-imagens-e-estilos. Acesso em: 7 set. 2025.
26 CONGRESSIONAL RESEARCH SERVICE. Generative Artificial Intelligence and Copyright Law. CRS Legal Sidebar, 22 mai. 2025. Disponível em: https://www.congress.gov/crs-product/LSB10922. Acesso em: 7 set. 2025.
27 YALE LAW JOURNAL. Artificial Why: Copyright is Not the Right Policy Tool to Deal with Generative AI. Yale Law Journal, [s.d.]. Disponível em: https://www.yalelawjournal.org/forum/artificial-why-copyright-is-not-the-right-policy-tool-to-deal-with-generative-ai. Acesso em: 7 set. 2025.
28 USC INTELLECTUAL PROPERTY AND TECHNOLOGY LAW SOCIETY. AI, Copyright, and the Law: The Ongoing Battle Over Intellectual Property Rights. USC IPTLS, 4 fev. 2025. Disponível em: https://sites.usc.edu/iptls/2025/02/04/ai-copyright-and-the-law-the-ongoing-battle-over-intellectual-property-rights/. Acesso em: 7 set. 2025.
29 AGÊNCIA CÂMARA DE NOTÍCIAS. Especialistas divergem sobre propriedade intelectual no uso de IA generativa. Câmara dos Deputados, 3 set. 2025. Disponível em: https://www.camara.leg.br/noticias/1195610-especialistas-divergem-sobre-propriedade-intelectual-no-uso-de-ia-generativa/. Acesso em: 7 set. 2025.
30 CENTRAL DO DIREITO. Especialistas divergem sobre direitos autorais e IA generativa em audiência da Câmara. Central do Direito, [s.d.]. Disponível em: https://centraldodireito.com.br/noticias/especialistas-divergem-sobre-direitos-autorais-e-ia-generativa-em-audiencia-da-camara. Acesso em: 7 set. 2025.
31 BAKER DONELSON. Artificial Intelligence and Copyright Law: The NYT v. OpenAI Fair Use Implications of Generative AI. Baker Donelson, [s.d.]. Disponível em: https://www.bakerdonelson.com/artificial-intelligence-and-copyright-law-the-nyt-v-openai-fair-use-implications-of-generative-ai. Acesso em: 7 set. 2025.


