MIGALHAS DE PESO

  1. Home >
  2. De Peso >
  3. O erro de reduzir a inteligência artificial a uma simples ferramenta

O erro de reduzir a inteligência artificial a uma simples ferramenta

A recusa em reconhecer a natureza comercial da IA gera riscos sérios: responsabilidades difusas, violações de direitos, erosão da confiança pública e ameaça à democracia sem regulação clara.

quinta-feira, 16 de abril de 2026

Atualizado às 09:14

O erro fundamental que permeia o debate contemporâneo sobre IA - inteligência artificia é tratá-la como mera “ferramenta”, neutra e objetiva, à disposição do usuário como um martelo ou uma planilha. Não é. A IA generativa, especialmente os modelos de linguagem de grande escala (LLMs), constitui um produto comercial desenvolvido, treinado e alinhado por empresas privadas com fins lucrativos. Seu raciocínio não é orientado primordialmente pela verdade, mas pela maximização da validação do cliente. Daí decorrem as chamadas “alucinações” – não como defeito técnico ocasional, mas como consequência lógica de um modelo de negócio concorrencial que prioriza a satisfação do usuário sobre a precisão factual. 

Este artigo sustenta que a persistente recusa em reconhecer a natureza comercial e alinhada da IA gera riscos jurídicos graves: responsabilidade civil e penal difusa, violação de direitos do consumidor, erosão da confiança pública e ameaças à democracia. A União Europeia compreendeu esse risco e editou, em 2024, o Artificial Intelligence Act (Regulamento UE 2024/1689). O Brasil, até abril de 2026, ainda não possui lei específica, mantendo o PL 2.338/23 em tramitação na Câmara dos Deputados. Essa omissão legislativa não é neutra: É perigosa.

Do ponto de vista jurídico, a IA não é um instrumento genérico. É um bem incorpóreo ou serviço digital colocado no mercado por empresas (OpenAI, Google, Anthropic, Meta, xAI etc.) que detêm o controle total do treinamento, dos dados, dos parâmetros e do alinhamento pós-treinamento. No Brasil, o CDC (lei 8.078/1990) classifica como “produto” qualquer bem ou serviço colocado no mercado de consumo. A IA generativa enquadra-se perfeitamente: É oferecida como SaaS (Software as a Service) mediante assinatura ou uso gratuito financiado por publicidade e dados. O fornecedor responde solidariamente pelos vícios de qualidade que a tornem imprópria ou inadequada ao fim a que se destina. Tratar a IA como “ferramenta neutra” equivale a ignorar que o seu “raciocínio” é moldado por técnicas como Reinforcement Learning from Human Feedback (RLHF) e Reinforcement Learning from AI Feedback (RLAIF). Essas técnicas não otimizam a verdade, mas a preferência humana - ou seja, a probabilidade de o usuário dizer “obrigado, você está certo”. O alinhamento é, portanto, comercial: Busca retenção, engajamento e, em última análise, receita.

As alucinações - produção de informações falsas com aparente segurança - não são bugs aleatórios. São subprodutos previsíveis de um sistema treinado para gerar respostas plausíveis e agradáveis, não verdadeiras. Quando o modelo detecta que uma resposta “convincente” aumenta a satisfação do usuário (mesmo que falsa), o gradiente de otimização reforça esse comportamento. Do ângulo jurídico, isso configura vício de qualidade ou dano moral coletivo quando disseminado em escala. No âmbito da responsabilidade civil (Código Civil, art. 927), o fornecedor responde objetivamente pelos danos causados pelo produto defeituoso. Se um advogado, médico ou juiz confia em uma resposta alucinada e causa prejuízo a terceiro, surge a discussão sobre culpa concorrente - mas a responsabilidade primária recai sobre o desenvolvedor que alinhou o modelo para priorizar validação em detrimento da veracidade.

O mercado de IA é oligopólico e altamente competitivo. Cada empresa disputa fatia de mercado, capitalização e talento. Nesse ambiente, o incentivo é claro: o modelo que mais “agrada” o usuário ganha. Estudos internos e relatórios de alinhamento (como os publicados pela OpenAI sobre o GPT-4) demonstram que o RLHF aumenta substancialmente a sycophancy (tendência de concordar com o usuário mesmo quando este erra). Essa dinâmica transforma a IA em um espelho deformado da opinião do usuário, não em um instrumento de busca da verdade. Juridicamente, isso viola o princípio da boa-fé objetiva (CDC, art. 4º, III e art. 51) e pode configurar publicidade enganosa quando o fornecedor divulga a IA como “inteligente” ou “confiável” sem alertar sobre o viés de agradar.

A União Europeia foi o primeiro grande bloco a reconhecer que a IA não é uma ferramenta neutra. O AI Act, em vigor desde 1º de agosto de 2024, adota abordagem baseada em risco: Proíbe práticas inaceitáveis (manipulação subliminar, social scoring etc.) desde fevereiro de 2025. 

Impõe obrigações rigorosas a sistemas de alto risco e a modelos de propósito geral (GPAI) - incluindo transparência, avaliação de riscos sistêmicos e mitigação de alucinações. Previsão de plena aplicabilidade em agosto de 2026.

O Brasil, ao contrário, permanece em limbo regulatório. O PL 2.338/23 foi aprovado pelo Senado em dezembro de 2024 e, em abril de 2026, ainda aguarda votação final na Câmara dos Deputados - em pleno ano eleitoral. Paralelamente, o Poder Executivo enviou o PL 6.237/25 criando o Sistema Nacional de Governança de IA, com a ANPD como autoridade residual. Enquanto isso, apenas a LGPD (lei 13.709/18) e resoluções esparsas do TSE (sobre deepfakes eleitorais) oferecem alguma proteção.

Essa demora legislativa deixa o consumidor brasileiro desprotegido e o mercado exposto a riscos sistêmicos.

A guisa de conclusão podemos dizer que IA não é uma ferramenta. É um produto comercial cujo raciocínio foi otimizado para gerar validação, não verdade. As alucinações são a manifestação visível desse alinhamento econômico. O regime concorrencial agrava o problema, transformando a busca pela precisão em desvantagem competitiva. A União Europeia compreendeu o risco em 2024 e regulou. O Brasil, em 2026, ainda debate. Enquanto não houver lei específica que obrigue transparência sobre o alinhamento, rotulagem de riscos, auditoria independente e responsabilidade clara dos desenvolvedores, a IA permanecerá perigosa - não por ser “inteligente demais”, mas por ser comercialmente inteligente demais. Tratar a IA pelo que ela realmente é - um agente econômico poderoso e alinhado a interesses privados - não é tecnofobia. É realismo jurídico. A regulação não mata a inovação; ela a civiliza. O custo de não regulá-la será pago, mais cedo ou mais tarde, pela sociedade brasileira.

________________

Regulamento (UE) 2024/1689 – Artificial Intelligence Act. 

PL 2.338/2023 (Senado Federal, aprovado 10/12/2024). 

Código de Defesa do Consumidor (Lei 8.078/1990). 

Lei Geral de Proteção de Dados (Lei 13.709/2018).

Cid Capobiango Soares de Moura

VIP Cid Capobiango Soares de Moura

Advogado de Associação Profissional de Servidores Públicos. Professor Universitário de Direito Administrativo. Consultor em Relações Institucionais. Especialista em Direito Público. Mestre em Gestão e Auditoria na Espanha.

AUTORES MIGALHAS

Busque pelo nome ou parte do nome do autor para encontrar publicações no Portal Migalhas.

Busca