IA e responsabilidade civil: danos sem responsável?
A inteligência artificial já produz danos reais. O problema é que o direito brasileiro ainda não sabe quem deve responder por eles.
quinta-feira, 2 de abril de 2026
Atualizado às 17:27
A expansão da inteligência artificial deixou de ser uma questão tecnológica e passou a representar um problema jurídico concreto. Sistemas automatizados influenciam a concessão de crédito, a circulação de informações, a seleção de candidatos e até decisões com impacto econômico direto sobre indivíduos. Não se trata mais de ferramentas auxiliares, mas de estruturas decisórias que operam com elevado grau de autonomia e opacidade.
Nesse cenário, a dificuldade não está apenas em identificar o dano. Está em reconstruir o caminho que levou à sua ocorrência e, sobretudo, em definir quem deve ser juridicamente responsabilizado. É nesse ponto que o modelo tradicional de responsabilidade civil começa a revelar suas limitações mais relevantes.
O modelo clássico foi estruturado sobre a identificação de uma conduta humana, a reconstrução do nexo causal e, em determinadas hipóteses, a aferição de culpa. Esse paradigma entra em crise quando confrontado com sistemas algorítmicos dinâmicos, de baixa explicabilidade e frequentemente inacessíveis até mesmo para quem os desenvolve ou opera.
O risco não é teórico. É institucional: a formação de uma zona de irresponsabilidade tecnológica, incompatível com a Constituição.
A Constituição não admite danos sem resposta
A ordem constitucional brasileira não tolera lacunas de proteção. A dignidade da pessoa humana, o direito à indenização por dano material e moral e o acesso à justiça impõem uma premissa básica: todo dano injusto deve ser reparado.
O CDC já internalizou essa lógica ao adotar a teoria do risco do empreendimento, estabelecendo a responsabilidade objetiva do fornecedor pelos defeitos do produto e do serviço.
A LGPD reforça esse movimento ao impor deveres de transparência e responsabilização no tratamento automatizado de dados.
O problema não está na ausência de normas. Está na insuficiência da leitura que ainda se faz delas.
O erro central: exigir da vítima o que ela não pode provar
A inteligência artificial não elimina o nexo causal — ela o torna opaco.
Sistemas baseados em aprendizado de máquina operam por inferências probabilísticas, ajustadas continuamente a partir de grandes volumes de dados. O resultado é uma decisão cujo percurso lógico não é facilmente reconstruível.
Exigir da vítima a demonstração técnica desse funcionamento interno não é rigor probatório: é inviabilização do direito.
A distribuição do ônus da prova, nesses casos, não pode ignorar a assimetria informacional estrutural entre fornecedor e vítima. Insistir na lógica tradicional significa, na prática, restringir o acesso à justiça.
Opacidade algorítmica não é excludente — é agravante
Há um erro recorrente na abordagem do tema: tratar a complexidade técnica como fator de mitigação da responsabilidade é um raciocínio invertido.
Quanto maior a opacidade, maior o dever de transparência. Quanto maior a complexidade, maior o risco da atividade. E quanto maior o risco, mais intensa deve ser a resposta do sistema de responsabilidade civil.
A dificuldade de explicação do algoritmo não afasta o dever de indenizar; ao contrário, reforça-o.
A falsa neutralidade dos sistemas automatizados
Sistemas de inteligência artificial não são neutros. Eles refletem dados, escolhas de modelagem e objetivos econômicos. Podem reproduzir vieses, ampliar desigualdades e produzir discriminações indiretas.
Quando um algoritmo nega crédito, restringe visibilidade ou classifica indivíduos, ele não está apenas operando tecnicamente; está produzindo efeitos jurídicos concretos.
Ignorar isso é permitir que decisões relevantes escapem ao controle jurídico sob o pretexto de complexidade técnica.
A solução: risco e prova
A resposta adequada não está na ruptura do sistema, mas na sua evolução.
Nos sistemas de alto risco, como os que afetam crédito, saúde, segurança ou acesso a direitos, a responsabilidade objetiva deve ser aplicada de forma intensificada, admitindo-se presunções a partir do dano não explicado.
Nos demais casos, a redistribuição dinâmica do ônus da prova deve ser tratada como regra estrutural, transferindo ao fornecedor o dever de demonstrar a regularidade de sua atuação.
Essa releitura preserva a coerência do sistema e reafirma a centralidade dos direitos fundamentais.
Segurança jurídica e o risco de uma objetivação excessiva
A adaptação do regime de responsabilidade civil à realidade dos sistemas algorítmicos não autoriza a supressão indiscriminada de seus pressupostos estruturais. Não se propõe a eliminação do nexo causal nem a imposição de responsabilidade automática.
A objetivação qualificada permanece ancorada no risco da atividade e na existência de dano juridicamente relevante, exigindo, ainda que de forma flexibilizada, a demonstração de vínculo entre o funcionamento do sistema e o resultado lesivo.
O que se afasta não é o nexo causal, mas a exigência de sua prova em moldes incompatíveis com a realidade tecnológica.
Negar essa adaptação, sob o argumento de preservação do modelo tradicional, conduz a resultado mais grave: a consolidação de danos sem reparação e a ruptura silenciosa do próprio sistema de responsabilidade civil.
O ponto crítico: fora do CDC, o sistema ainda é insuficiente
Grande parte das soluções disponíveis está ancorada no direito do consumidor.
Mas decisões algorítmicas não se limitam a relações de consumo. Elas aparecem em relações empresariais, no setor público e em ambientes regulatórios.
Nesses contextos, a ausência de critérios claros de responsabilização amplia o risco de lacunas.
Ou o direito civil expande, de forma coerente, a lógica do risco e da redistribuição probatória, ou passará a conviver com danos sem resposta adequada.
Conclusão
A inteligência artificial não representa apenas um avanço tecnológico. Ela expõe um limite do próprio modelo de responsabilidade civil.
A opacidade algorítmica e a complexidade técnica não podem ser convertidas em mecanismos de diluição da responsabilidade jurídica. Se isso ocorrer, o avanço tecnológico terá como efeito colateral a redução do nível de proteção da pessoa humana — e o direito não pode aceitar esse resultado.
Ou se reconhece que a opacidade algorítmica é risco da atividade econômica e se ajustam os critérios de imputação, ou se admitirá, ainda que implicitamente, a formação de uma nova categoria de dano: o dano sem responsável.


