MIGALHAS DE PESO

  1. Home >
  2. De Peso >
  3. Entre algoritmos e a vontade humana: Da autonomia decisional assistida

Entre algoritmos e a vontade humana: Da autonomia decisional assistida

Breve análise dos impactos da automação decisional na autonomia da vontade, sustentando que a resposta jurídica adequada é a autonomia assistida, e não a substituição da decisão humana por algoritmos.

quinta-feira, 26 de fevereiro de 2026

Atualizado às 09:31

A incorporação progressiva da IA na formação e execução dos contratos deslocou o debate clássico da autonomia da vontade para um terreno sensivelmente mais complexo.

Já não se trata apenas de verificar se as partes são livres para contratar, mas de compreender em que medida a vontade humana permanece efetivamente determinante quando decisões negociais passam a ser mediadas, sugeridas ou executadas por sistemas algorítmicos.

Nesse cenário, a autonomia da vontade não desaparece, mas sofre uma ressignificação estrutural, exigindo do Direito Contratual uma leitura menos formal e mais atenta às assimetrias informacionais, aos riscos tecnológicos e à redistribuição dos centros decisórios no ambiente digital.

1. Autonomia da vontade, limites tecnológicos e riscos assimétricos

A atuação da IA nos contratos frequentemente é apresentada sob a narrativa da eficiência: maior velocidade, redução de custos, padronização racional e previsibilidade. Contudo, essa promessa esconde um dado fundamental: o poder decisório naquela relação jurídica não se extingue, apenas se desloca.

Por exemplo, quando um sistema de IA sugere cláusulas, define parâmetros econômicos, avalia riscos ou executa automaticamente obrigações, a manifestação da vontade humana passa a ocorrer, mormente, no momento da programação, da parametrização e da escolha do modelo tecnológico utilizado. Ou seja, a liberdade contratual, portanto, deixa de ser exercida apenas no ato de consentimento final (assinatura do instrumento) e passa a ser condicionada por escolhas técnicas, muitas vezes opacas ao contratante final.

Esse deslocamento da autonomia, a depender do caso, pode gerar riscos relevantes, já que a opacidade algorítmica impede a compreensão dos critérios que conduzem determinada decisão.

Outrossim, os vieses embutidos nos dados de treinamento daquela tecnologia podem reforçar desigualdades estruturais e a assimetria informacional se intensifica, sobretudo quando apenas uma das partes detém controle técnico sobre o sistema utilizado.

Nesse contexto, a autonomia da vontade pode ser formalmente preservada, mas materialmente esvaziada, caso o Direito não estabeleça mecanismos capazes de reequilibrar essa nova dinâmica decisional.

2. Mecanismos de controle e supervisão na atuação da IA

Diante desses riscos, a resposta jurídica não reside na rejeição da tecnologia, mas na construção de filtros normativos e institucionais capazes de preservar a centralidade da vontade humana.

Entre esses mecanismos, destaca-se a auditoria algorítmica, entendida como a possibilidade de verificação técnica e jurídica dos critérios de funcionamento do sistema, especialmente em contratos de maior complexidade ou impacto econômico relevante.

Não se trata de exigir a abertura irrestrita de códigos-fonte, mas de assegurar a devida rastreabilidade decisional mínima, suficiente para identificar padrões, erros sistêmicos ou desvios incompatíveis com a boa-fé objetiva.

Outro elemento indispensável é a supervisão humana qualificada. A intervenção humana não pode ser meramente simbólica ou posterior ao dano. Deve haver capacidade real de revisão, correção e interrupção de decisões automatizadas, especialmente quando estas afetem direitos patrimoniais relevantes ou a esfera de autodeterminação daquele contratante.

Nesse contexto, mostra-se relevante mencionar a Recomendação sobre Inteligência Artificial da OCDE1, na qual o Brasil é signatário e que dispõe de orientações essenciais destinadas aos Estados e agentes privados quanto à governança responsável da IA, sem substituir o papel do legislador interno e da atuação humana, estabelecendo parâmetros mínimos de legitimidade jurídica e ética para o uso de sistemas inteligentes.

Tal recomendação baseou a criação da resolução 332/20 do CNJ2 que dispõe sobre a ética e a governança no uso da IA dentro do Poder Judiciário e estabelecendo limites jurídicos claros à automação decisional e reafirmando a centralidade da atuação humana em processos decisórios sensíveis.

Outrossim, é pertinente citar o PL 2.338/233, aprovado pelo Senado Federal, que representa uma iniciativa legislativa significativa para a conformação de um marco legal consolidado acerca do uso da IA no Brasil.

O referido projeto adota uma abordagem regulatória baseada em riscos, estabelecendo deveres graduais conforme o grau de impacto do sistema de IA, bem como princípios estruturantes como a supervisão humana, a transparência, a rastreabilidade, a prevenção de danos e a responsabilização dos agentes envolvidos no ciclo de vida da tecnologia.

Ainda que o PL não se volte especificamente ao Direito Contratual, suas diretrizes dialogam diretamente com a necessidade de controle e supervisão da atuação da IA nos mais diversos tipos de relações, inclusive aquelas de caráter negocial, reforçando a ideia de que decisões automatizadas não podem prescindir de mecanismos jurídicos capazes de preservar a autonomia da vontade, a boa-fé objetiva e a proteção do contratante em contextos de assimetria informacional.

A isso, soma-se a exigência de transparência e explicabilidade, não apenas em sentido técnico, mas jurídico. O contratante deve ser informado, de forma clara e compreensível, acerca do grau de autonomia do sistema utilizado, de suas limitações e dos riscos inerentes à automação decisional. Nesta feita, o consentimento, então, deixa de ser genérico e passa a exigir informação qualificada.

3. Dos graus de autonomia da IA e a zona cinzenta decisional

É sabido que nem toda IA opera com o mesmo nível de autonomia. Há sistemas meramente assistivos, que organizam dados e sugerem soluções, enquanto há outros já capazes de tomar decisões autônomas, ajustando seu comportamento a partir de aprendizado contínuo.

Essa distinção é essencial para evitar generalizações indevidas. O problema jurídico não está na tecnologia em si, mas no grau de substituição do juízo humano. Quanto maior a autonomia decisional do sistema, maior deve ser a densidade dos mecanismos de controle, responsabilização e supervisão.

Nesse ponto, surgem propostas mais radicais, como o reconhecimento de uma suposta autonomia plena da IA, algo que se aproxima de uma personalidade jurídica e que, conforme resolução do Parlamento europeu de 16/2/17 (2015/2103 – INL)4, publicada no jornal oficial da União Europeia, já se considerou a criação de um “status jurídico específico para robôs, qual seja: a "personalidade eletrônica”.

Tais construções, embora provocativas, mostram-se prematuras e dogmaticamente frágeis, pois deslocam o foco do verdadeiro problema: a responsabilidade humana pelas escolhas técnicas realizadas.

Diante desse intento em se criar uma personalidade jurídica/eletrônica, sobreveio a Robotics Open Letter5, na qual especialistas do âmbito jurídico em conjunto com profissionais da tecnologia se posicionaram de forma crítica e contundente contra a atribuição de personalidade jurídica a robôs e sistemas de IA, afirmando que tal proposta parte de pressupostos técnicos equivocados, superestima as capacidades reais dessas tecnologias e, sobretudo, representa um risco ético e jurídico ao deslocar indevidamente a responsabilidade humana por danos para entidades artificiais desprovidas de consciência, intencionalidade e valor moral.

Nesse esteio, saliente-se que a IA não possui intencionalidade, consciência moral ou finalidade própria. Seus atos são sempre reflexos – diretos ou indiretos – de decisões humanas anteriores. Reconhecer-lhe uma personalidade jurídica/eletrônica, além de artificializar as relações humanas e até os debates jurídicos, pode funcionar como um instrumento de “diluição de responsabilidades” que deveriam competir a pessoas físicas ou jurídicas convencionais, fragilizando a tutela dos participantes de uma relação contratual, por exemplo.

Desta sorte, entre a simples ferramenta e o agente substitutivo da vontade humana, existe uma “zona cinzenta”, na qual a IA atua como mediadora decisional. É exatamente nesse espaço que se impõe a noção de “autonomia assistida”: a vontade permanece humana, mas é exercida com suporte tecnológico, sob vigilância técnica e permanente de alguém credenciado a fazê-lo.

4. Autonomia assistida e a preservação da justiça contratual

A autonomia assistida não representa um retrocesso, tampouco uma limitação ilegítima da liberdade contratual. Ao contrário, trata-se de sua atualização funcional, compatível com a complexidade das relações negociais contemporâneas.

O dirigismo contratual surgido no pós Segunda Guerra Mundial se conceitua como “a intervenção do Estado nas relações privadas, com a finalidade de tentar corrigir desigualdades e assegurar Justiça”. Tal dirigismo não eliminou a autonomia da vontade, entretanto, lhe reconduziu a parâmetros de equilíbrio e Justiça social.

Nesse esteio, de forma semelhante, a regulação da IA busca impedir que a racionalidade tecnológica suplante valores jurídicos fundamentais, como a boa-fé, a confiança e a proteção da parte vulnerável.

Nesse modelo, a IA atua como “instrumento de apoio”, não como substituto da deliberação humana. A legitimidade do contrato passa a depender não apenas da concordância formal das partes, mas da qualidade do processo decisional que conduziu à formação da vontade.

Conclusão

A IA não extingue a autonomia da vontade no Direito Contratual, mas a transforma profundamente. O desafio contemporâneo não é preservar conceitos estáticos, mas reconstruir princípios tradicionais à luz de novas realidades tecnológicas.

A autonomia da vontade, para continuar juridicamente relevante, precisa ser compreendida como “autonomia decisional assistida”, ancorada em transparência, supervisão humana, auditoria e responsabilização. Somente assim será possível conciliar a inovação tecnológica junto ao Direito e à Justiça contratual, evitando que a eficiência algorítmica se converta em novo vetor de assimetria e opacidade.

Nessa ótica, vislumbra-se que o futuro da prática contratual não será exclusivamente humano, tampouco puramente automatizado. Será, necessariamente, híbrido e, nesse diapasão, caberá ao Direito assegurar que, mesmo nesse novo ambiente, a vontade humana permaneça como o verdadeiro núcleo de legitimação dos vínculos jurídicos.

_______

1 OCDE. Recommendation of the Council on Artificial Intelligence, OECD/LEGAL/0449. OECD Legal Instruments. 2019. Disponível em: https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449.

2 CONSELHO NACIONAL DE JUSTIÇA. Resolução nº 332 de 21 de agosto de 2020. Disponível em: https://atos.cnj.jus.br/atos/detalhar/3429

3 BRASIL. Projeto de Lei nº. 2338 de 2023. Dispõe sobre o uso da Inteligência Artificial. Autoria do Senador Rodrigo Pacheco (PSD/MG). 2023. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233.

4 UNIÃO EUROPEIA. Parlamento Europeu. European Parliament resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)). Official Journal of the European Union. C 252/250. 18 jul. 2018. Disponível em: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52017IP0051

5 ROBOTICS OPEN LETTER. Open Letter to the European Commission: Artificial Intelligence and Robotics. Disponível em: https://robotics-openletter.eu/

Francisco Leopoldo Viana Lara Ribeiro

VIP Francisco Leopoldo Viana Lara Ribeiro

Advogado pela banca Arrighi Advogados & Associados. Especialista em Direito Processual Civil pelo Mackenzie. Especialista em Direito Contratual Aplicado pela PUC Minas.

AUTORES MIGALHAS

Busque pelo nome ou parte do nome do autor para encontrar publicações no Portal Migalhas.

Busca