A inteligência artificial deixou de ser um experimento de laboratório para se tornar uma ferramenta cotidiana. Hoje, é capaz de gerar textos, imagens, vozes e músicas em poucos segundos. Esse avanço, no entanto, trouxe à tona uma questão jurídica central: até que ponto o ordenamento jurídico atual é capaz de responder aos conflitos decorrentes do uso da IA? Do ponto de vista do direito de propriedade intelectual, a resposta é menos dramática do que muitos imaginam.
A voz humana, assim como a imagem, constitui um atributo da personalidade - uma extensão direta da identidade do indivíduo. A lógica jurídica aplicada ao uso indevido da imagem deve, portanto, ser a mesma aplicada à reprodução ou imitação da voz por meio de inteligência artificial. Se é ilícito, por exemplo, criar uma ilustração comprometedora a partir da imagem de alguém sem autorização, o mesmo raciocínio se aplica ao uso de IA para imitar a voz de uma pessoa, especialmente quando houver intuito depreciativo ou exploração comercial.
Nesse contexto, pouco importa se o meio utilizado é inovador. A ilicitude não está na tecnologia em si, mas no uso que dela se faz. A inteligência artificial é apenas uma ferramenta; a responsabilidade decorre da conduta humana que a aciona.
Quando se avança para o campo da criação musical por IA, surgem discussões ainda mais sofisticadas. A lei de direitos autorais brasileira é de 1998, período em que a inteligência artificial não estava disponível ao público, o que naturalmente gera lacunas normativas. Ainda assim, o sistema jurídico oferece respostas. Dentro da lógica atual de proteção autoral, quem formula o prompt, isto é, quem dirige criativamente a ferramenta, tende a ser considerado o autor da obra resultante.
Essa regra, contudo, não é absoluta. Os termos de uso das plataformas de IA podem estabelecer disciplina diversa, atribuindo ao desenvolvedor os direitos patrimoniais sobre tudo o que for produzido por aquela ferramenta. Nesses casos, a titularidade não decorre diretamente da lei, mas da autonomia privada e da aceitação contratual pelo usuário.
Um debate que tende a ganhar cada vez mais espaço diz respeito à responsabilidade dos desenvolvedores de IA pelos usos inadequados da tecnologia que causem prejuízo a terceiros. Embora, atualmente, a responsabilização recaia majoritariamente sobre o usuário final, é possível vislumbrar uma tendência de ampliação desse dever, especialmente quando houver falhas na adoção de mecanismos mínimos de controle, prevenção ou mitigação de riscos.
Pessoalmente, entendo que esse será um dos principais eixos de evolução do direito aplicado à inteligência artificial. Não se trata de frear a inovação, mas de reconhecer que ferramentas extremamente poderosas exigem padrões proporcionais de diligência.
O Judiciário brasileiro, ao contrário do que muitas vezes se afirma, está apto a enfrentar essas questões. A inteligência artificial não rompe com os fundamentos da responsabilidade civil. Se o uso inadequado de uma ferramenta gera dano a terceiro, permanecem presentes os elementos clássicos da responsabilização: conduta, dano e nexo causal. A tecnologia apenas altera o cenário fático, não a estrutura jurídica.
Além disso, as legislações de direito autoral, no Brasil e no mundo, guardam grande semelhança por derivarem de convenções internacionais. Isso significa que as soluções adotadas internamente tendem a dialogar com modelos já em construção em outros países, reforçando a segurança jurídica e a previsibilidade.
O verdadeiro desafio, portanto, não está em criar um novo direito do zero, mas em interpretar, com rigor técnico e sensibilidade contemporânea, princípios que já existem. A inteligência artificial inaugura uma nova fronteira tecnológica, mas a responsabilidade jurídica continua tendo um nome antigo: uso consciente e respeito aos direitos de terceiros.