MIGALHAS DE PESO

  1. Home >
  2. De Peso >
  3. IA e responsabilidade civil: danos sem responsável?

IA e responsabilidade civil: danos sem responsável?

A inteligência artificial já produz danos reais. O problema é que o direito brasileiro ainda não sabe quem deve responder por eles.

quinta-feira, 2 de abril de 2026

Atualizado às 17:27

A expansão da inteligência artificial deixou de ser uma questão tecnológica e passou a representar um problema jurídico concreto. Sistemas automatizados influenciam a concessão de crédito, a circulação de informações, a seleção de candidatos e até decisões com impacto econômico direto sobre indivíduos. Não se trata mais de ferramentas auxiliares, mas de estruturas decisórias que operam com elevado grau de autonomia e opacidade.

Nesse cenário, a dificuldade não está apenas em identificar o dano. Está em reconstruir o caminho que levou à sua ocorrência e, sobretudo, em definir quem deve ser juridicamente responsabilizado. É nesse ponto que o modelo tradicional de responsabilidade civil começa a revelar suas limitações mais relevantes.

O modelo clássico foi estruturado sobre a identificação de uma conduta humana, a reconstrução do nexo causal e, em determinadas hipóteses, a aferição de culpa. Esse paradigma entra em crise quando confrontado com sistemas algorítmicos dinâmicos, de baixa explicabilidade e frequentemente inacessíveis até mesmo para quem os desenvolve ou opera.

O risco não é teórico. É institucional: a formação de uma zona de irresponsabilidade tecnológica, incompatível com a Constituição.

A Constituição não admite danos sem resposta

A ordem constitucional brasileira não tolera lacunas de proteção. A dignidade da pessoa humana, o direito à indenização por dano material e moral e o acesso à justiça impõem uma premissa básica: todo dano injusto deve ser reparado.

O CDC já internalizou essa lógica ao adotar a teoria do risco do empreendimento, estabelecendo a responsabilidade objetiva do fornecedor pelos defeitos do produto e do serviço.

A LGPD reforça esse movimento ao impor deveres de transparência e responsabilização no tratamento automatizado de dados.

O problema não está na ausência de normas. Está na insuficiência da leitura que ainda se faz delas.

O erro central: exigir da vítima o que ela não pode provar

A inteligência artificial não elimina o nexo causal — ela o torna opaco.

Sistemas baseados em aprendizado de máquina operam por inferências probabilísticas, ajustadas continuamente a partir de grandes volumes de dados. O resultado é uma decisão cujo percurso lógico não é facilmente reconstruível.

Exigir da vítima a demonstração técnica desse funcionamento interno não é rigor probatório: é inviabilização do direito.

A distribuição do ônus da prova, nesses casos, não pode ignorar a assimetria informacional estrutural entre fornecedor e vítima. Insistir na lógica tradicional significa, na prática, restringir o acesso à justiça.

Opacidade algorítmica não é excludente — é agravante

Há um erro recorrente na abordagem do tema: tratar a complexidade técnica como fator de mitigação da responsabilidade é um raciocínio invertido.

Quanto maior a opacidade, maior o dever de transparência. Quanto maior a complexidade, maior o risco da atividade. E quanto maior o risco, mais intensa deve ser a resposta do sistema de responsabilidade civil.

A dificuldade de explicação do algoritmo não afasta o dever de indenizar; ao contrário, reforça-o.

A falsa neutralidade dos sistemas automatizados

Sistemas de inteligência artificial não são neutros. Eles refletem dados, escolhas de modelagem e objetivos econômicos. Podem reproduzir vieses, ampliar desigualdades e produzir discriminações indiretas.

Quando um algoritmo nega crédito, restringe visibilidade ou classifica indivíduos, ele não está apenas operando tecnicamente; está produzindo efeitos jurídicos concretos.

Ignorar isso é permitir que decisões relevantes escapem ao controle jurídico sob o pretexto de complexidade técnica.

A solução: risco e prova

A resposta adequada não está na ruptura do sistema, mas na sua evolução.

Nos sistemas de alto risco, como os que afetam crédito, saúde, segurança ou acesso a direitos, a responsabilidade objetiva deve ser aplicada de forma intensificada, admitindo-se presunções a partir do dano não explicado.

Nos demais casos, a redistribuição dinâmica do ônus da prova deve ser tratada como regra estrutural, transferindo ao fornecedor o dever de demonstrar a regularidade de sua atuação.

Essa releitura preserva a coerência do sistema e reafirma a centralidade dos direitos fundamentais.

Segurança jurídica e o risco de uma objetivação excessiva

A adaptação do regime de responsabilidade civil à realidade dos sistemas algorítmicos não autoriza a supressão indiscriminada de seus pressupostos estruturais. Não se propõe a eliminação do nexo causal nem a imposição de responsabilidade automática.

A objetivação qualificada permanece ancorada no risco da atividade e na existência de dano juridicamente relevante, exigindo, ainda que de forma flexibilizada, a demonstração de vínculo entre o funcionamento do sistema e o resultado lesivo.

O que se afasta não é o nexo causal, mas a exigência de sua prova em moldes incompatíveis com a realidade tecnológica.

Negar essa adaptação, sob o argumento de preservação do modelo tradicional, conduz a resultado mais grave: a consolidação de danos sem reparação e a ruptura silenciosa do próprio sistema de responsabilidade civil.

O ponto crítico: fora do CDC, o sistema ainda é insuficiente

Grande parte das soluções disponíveis está ancorada no direito do consumidor.

Mas decisões algorítmicas não se limitam a relações de consumo. Elas aparecem em relações empresariais, no setor público e em ambientes regulatórios.

Nesses contextos, a ausência de critérios claros de responsabilização amplia o risco de lacunas.

Ou o direito civil expande, de forma coerente, a lógica do risco e da redistribuição probatória, ou passará a conviver com danos sem resposta adequada.

Conclusão

A inteligência artificial não representa apenas um avanço tecnológico. Ela expõe um limite do próprio modelo de responsabilidade civil.

A opacidade algorítmica e a complexidade técnica não podem ser convertidas em mecanismos de diluição da responsabilidade jurídica. Se isso ocorrer, o avanço tecnológico terá como efeito colateral a redução do nível de proteção da pessoa humana — e o direito não pode aceitar esse resultado.

Ou se reconhece que a opacidade algorítmica é risco da atividade econômica e se ajustam os critérios de imputação, ou se admitirá, ainda que implicitamente, a formação de uma nova categoria de dano: o dano sem responsável.

Giovanni Pugliese Garção de Magalhães

VIP Giovanni Pugliese Garção de Magalhães

Advogado, professor e palestrante. Pós-graduado em Responsabilidade Civil e Direito do Consumidor.

AUTORES MIGALHAS

Busque pelo nome ou parte do nome do autor para encontrar publicações no Portal Migalhas.

Busca