MIGALHAS DE PESO

  1. Home >
  2. De Peso >
  3. IA e apropriação: Proteção da imagem, voz e LGPD para atores no Brasil

IA e apropriação: Proteção da imagem, voz e LGPD para atores no Brasil

Análise sobre IA e apropriação de atores. Demonstra-se a proteção legal no Brasil via súmula 403 STJ, LGPD e Direitos Conexos, exigindo urgência na regulação ética.

quinta-feira, 27 de novembro de 2025

Atualizado às 09:18

A recente introdução de "atores" inteiramente gerados por IA - Inteligência Artificial, como o caso da personagem Tilly Norwood, acendeu um debate global sobre o futuro da indústria cinematográfica. A promessa de redução drástica de custos de produção colide diretamente com preocupações cruciais sobre direitos, ética e o próprio conceito de arte. Este artigo analisa o fenômeno sob a ótica do ordenamento jurídico brasileiro, explorando os desafios e os robustos mecanismos de proteção existentes para os atores humanos, centrados na tutela dos direitos da personalidade e da identidade digital.

1. O cenário: Inovação tecnológica vs. proteção humana

O caso de Tilly Norwood, uma "atriz" de IA que busca representação em Hollywood, ilustra uma nova fronteira. Empresas como a Particle6 argumentam que a tecnologia pode otimizar produções, mas a reação da indústria foi imediata. O SAG-AFTRA, principal sindicato de atores dos EUA, posicionou-se firmemente contra a substituição de humanos por IA, defendendo que a criatividade deve permanecer centrada na experiência humana.

As preocupações levantadas por figuras como Whoopi Goldberg e Emily Blunt são pertinentes: a possibilidade de que essas IAs sejam treinadas com base em características e performances de inúmeros atores reais, sem consentimento ou a devida compensação, representa uma ameaça existencial à profissão e à autonomia artística.

2. A proteção dos direitos da personalidade e da identidade digital no Brasil

No Brasil, a questão encontra uma sólida barreira de proteção dos direitos da personalidade, garantidos pela Constituição Federal e pelo CC. O direito à imagem, à voz e à identidade são atributos da personalidade, autônomos e irrenunciáveis, não podendo ser apropriados por terceiros para fins comerciais sem autorização expressa.

2.1. O amparo do CC e a súmula 403 do STJ

O art. 20 do CC é claro ao estipular que, salvo com autorização, a divulgação de escritos, a transmissão da palavra, ou a publicação, a exposição ou a utilização da imagem de uma pessoa poderão ser proibidas, a seu requerimento e sem prejuízo da indenização que couber, se lhe atingirem a honra, a boa fama ou a respeitabilidade, ou se se destinarem a fins comerciais.

A jurisprudência dos tribunais superiores é consolidada em favor da proteção do indivíduo. O STJ, por meio da súmula 403, pacificou o entendimento de que:

STJ - Súmula 403 do STJ Independe de prova do prejuízo a indenização pela publicação não autorizada de imagem de pessoa com fins econômicos ou comerciais.

Isso significa que o dano é considerado presumido (in re ipsa). A simples utilização comercial não autorizada da imagem (e, por extensão, da voz) de um ator atinge diretamente sua imagem-atributo (o valor de sua projeção profissional e fama), configurando ato ilícito passível de indenização.

Diversas decisões reforçam essa proteção:

  • O STJ - AgInt no REsp 2040356 SP (publicado em 17/5/2023) reafirma que os danos morais pela violação do direito à imagem decorrem do seu simples uso indevido, sendo o dano in re ipsa.
  • Em um caso envolvendo o uso indevido de imagem e voz, o TJ/ES - Apelação 0010716-37.2012.8.08.0012 (publicado em 10/5/2016), condenou uma editora a indenizar por danos materiais e morais, consolidando que a proteção se estende a ambos os atributos da personalidade.
  • O TST reconhece a violação quando a imagem de um empregado é usada para propaganda sem a devida retribuição, configurando abuso do poder diretivo do empregador (TST - RR: 5734320205120013, publicado em 25/3/2022).

2.2. A tutela da LGPD sobre a imagem e a voz

A questão da IA é indissociável da proteção de dados. A LGPD (lei 13.709/18) impõe uma camada adicional de proteção ao tema. A imagem e a voz de um ator, quando utilizadas para identificá-lo ou para inferir suas características, constituem dados pessoais (Art. 5º, I).

O treinamento de modelos de IA com performances e características de atores humanos configura tratamento de dados pessoais (Art. 5º, X), o que exige, na maioria dos casos, o consentimento específico, destacado e inequívoco do titular (Art. 7º, I). A apropriação de um dataset de performances sem esta licença específica viola frontalmente a LGPD, além do CC.

3. Desafios jurídicos da inteligência artificial

A criação de "atores IA" levanta questões complexas que o arcabouço legal atual terá de enfrentar, demandando a ponderação de diversos ramos do Direito:

  • Desafio probatório: Se uma IA é treinada com base em um vasto banco de dados de performances de atores humanos sem a devida licença, há uma clara violação em massa de direitos. A dificuldade reside em rastrear e provar quais dados foram utilizados, dada a natureza de black box dos modelos de IA. Essa dificuldade pode levar à inversão do ônus da prova em favor do ator, obrigando a empresa de tecnologia a demonstrar a licitude do dataset.
  • Violação de direitos conexos (interpretação artística): Além dos Direitos da Personalidade (imagem e voz), a performance do ator é protegida pelos Direitos Conexos, regulamentados pela lei 9.610/98 (LDA - Lei de Direitos Autorais). O Art. 90 da LDA confere ao artista intérprete ou executante o direito exclusivo de autorizar ou proibir a fixação, a reprodução e a utilização de suas interpretações. A apropriação do estilo, dos movimentos ou da interpretação de um ator por uma IA, mesmo que não se trate de um deepfake literal, pode configurar a violação do direito exclusivo sobre sua execução artística fixada, demandando a devida remuneração e autorização prévia.
  • Responsabilidade civil e o deepfake: Quem responde por um "ator IA" que, em uma obra de ficção, reproduz sem autorização traços e estilos de uma pessoa real, configurando uma espécie de deepfake comercial, e causando-lhe dano? A responsabilidade recairia sobre o estúdio, a empresa de tecnologia ou o diretor do filme? Diante do risco inerente à atividade (Art. 927, Parágrafo Único, do CC), é plausível que se adote a responsabilidade civil objetiva para a reparação do dano.

O STF, no julgamento da ADI 4815 DF, já pronunciou-se sobre o conflito entre a liberdade de expressão e os direitos da personalidade, resguardando o direito à indenização em caso de abuso. Esse mesmo princípio de ponderação será crucial para regular a IA no entretenimento.

4. O futuro: Regulação e novos modelos de negócio

O caminho mais provável não é a proibição da tecnologia, mas sua regulação e contratualização detalhada. Contratos de trabalho e de licenciamento de imagem e voz precisarão ser extremamente detalhados, especificando:

  • A permissão (ou proibição) expressa para a criação de réplicas digitais (digital twins).
  • Os limites de uso dessas réplicas (em quais produções, por quanto tempo e território).
  • A remuneração devida pelo uso da imagem/voz para treinar modelos de IA ou pela performance de um "dublê digital".

O modelo adotado por empresas que licenciam vozes ou imagens de celebridades com o consentimento e a participação delas aponta para um futuro de coexistência, onde a IA atua como uma ferramenta de expansão do alcance do ator, e não como um substituto.

Conclusão

A ascensão dos atores de IA é um marco tecnológico que desafia a indústria do entretenimento a se reinventar. Contudo, sob a perspectiva do Direito brasileiro, a proteção à dignidade e aos direitos da personalidade do ator humano é robusta e multicamadas. A jurisprudência nacional, a súmula 403 do STJ, o arcabouço da LGPD e, crucialmente, a proteção dos Direitos Conexos da LDA oferecem um forte amparo contra a apropriação indevida de imagem, voz e persona digital para fins comerciais.

A tecnologia pode evoluir, mas os princípios que protegem a expressão única e a experiência humana que definem a arte da atuação permanecem. Em suma, o avanço dos atores de IA exige a ponderação entre a livre iniciativa e a dignidade da pessoa humana, sendo o ordenamento brasileiro dotado de instrumentos robustos (CC, súmula 403, LGPD e lei de direitos autorais) para garantir que a inovação tecnológica no entretenimento se dê de forma ética, transparente e justa, atuando a IA como ferramenta e não como substituto legal do criador.

Jessica Marcelli de Oliveira Campos

VIP Jessica Marcelli de Oliveira Campos

Advogada (OAB/SP 344.251) | Arquiteta Jurídica do Audiovisual. Especialista em blindagem de Direitos de Imagem, Autoria e Propriedade Intelectual (incluindo IA).

AUTORES MIGALHAS

Busque pelo nome ou parte do nome do autor para encontrar publicações no Portal Migalhas.

Busca