Migalhas Consensuais

O futuro da mediação é digital - e precisa continuar humano

A coluna aborda como, na mediação, a IA traz eficiência e preparo, mas exige ética e controle humano para que a tecnologia fortaleça, e não substitua, o diálogo.

22/1/2026

A inteligência artificial já não é um tema distante ou restrito aos tribunais. No setor privado - especialmente nas práticas de mediação e resolução consensual de conflitos -, a IA começa a redefinir a forma como profissionais gerem informação, estruturam processos e até refletem sobre decisões e opções de diálogo.

O avanço é inevitável. Mas o modo como escolhemos integrá-lo é que determinará se essa transformação será um salto ético ou apenas uma corrida tecnológica.

Nos últimos anos, o campo da mediação privada tem assistido a uma transição silenciosa: programas de apoio à preparação de casos, plataformas que utilizam IA para mapear padrões de conflito, assistentes virtuais que ajudam na redação de comunicações e relatórios.

Estas ferramentas prometem eficiência - e, de facto, podem libertar o(a) mediador(a) para se concentrar no essencial: o diálogo humano.

Mas também levantam questões complexas:

  • Como garantir a confidencialidade quando dados são processados por sistemas automatizados?
  • Que limites existem para o uso de ferramentas generativas no apoio à reflexão ou à formulação de propostas?
  • E, sobretudo, como assegurar que a tecnologia não substitui, mas potencia a escuta e o papel de facilitador do mediador?

Estas perguntas exigem um debate global. Organizações internacionais como a IBA - International Bar Association e a UNESCO têm vindo a propor princípios éticos para o uso responsável da inteligência artificial no Direito e na mediação.

A IBA, nas suas Guidelines on the Use of Generative Artificial Intelligence in Mediation (2025), oferece um enquadramento prático e normativo para o uso ético da IA, sublinhando princípios como o consentimento informado, a supervisão humana, a transparência e a neutralidade algorítmica.

A UNESCO, na sua Recommendation on the Ethics of Artificial Intelligence (2021), estabelece princípios universais que defendem um uso da tecnologia centrado no ser humano, baseado na dignidade, autonomia e responsabilidade.

Como sublinha o Guia ICFML de Prática Profissional em Mediação - Vol. 1, Uso Ético e Responsável da Inteligência Artificial na Mediação, a tecnologia deve servir o diálogo humano, sem comprometer os valores centrais da mediação: confidencialidade, neutralidade, empatia e integridade.

Este último documento - concebido como orientações flexíveis e evolutivas - propõe boas práticas, checklists e modelos operacionais éticos para apoiar mediadores(as) na integração segura e informada da IA nas suas rotinas profissionais. Mais do que um manual, é um convite à reflexão coletiva sobre o futuro da profissão.

É indiscutível que o uso da inteligência artificial na mediação representa uma oportunidade poderosa quando orientado para ampliar o acesso, apoiar a preparação e fortalecer a qualidade das decisões humanas.

As suas aplicações podem incluir a análise de emoções e dinâmicas relacionais, a avaliação de riscos e padrões de comportamento, o apoio à criação de opções e à identificação de zonas de acordo possível, a análise factual das informações do caso, a construção da linha temporal do conflito e até o apoio a advogados e mediadores na formulação de argumentos e decisões mais informadas.

Por fazer tudo isto - sem substituir o discernimento, a empatia e a escuta humana - a IA torna-se um copiloto do pensamento racional, um instrumento que complementa, mas não substitui (pelo menos até hoje), a inteligência emocional e ética que a mediação exige.

O essencial é garantir que a tecnologia apoia o trabalho humano sem o substituir, mantendo a essência da mediação - a confiança, o diálogo e a compreensão entre pessoas.

Como recorda o livro Artificial Intelligence and the Law (Brill, 2025), restringir o conceito de “segurança em IA” à mera fiabilidade técnica é um equívoco perigoso. A indústria tende a enquadrar a segurança da IA como uma questão de desempenho do sistema, ignorando os riscos sociais e humanos que permanecem sem resposta.

Essa visão reforça o princípio de que a segurança ética não se mede pela ausência de falhas tecnológicas, mas pela presença de responsabilidade humana.

A inteligência artificial abre, assim, oportunidades extraordinárias para a mediação - desde a gestão de informação à criação de novos modelos de diálogo.

Mas o futuro da mediação não será apenas tecnológico: será ético, humano e colaborativo, assente numa responsabilidade partilhada entre pessoas e tecnologia - um espaço onde o humano e o digital aprendem a dialogar.

Afinal, a mediação é, por essência, diálogo. E o grande desafio que agora enfrentamos é compreender como integrar este novo diálogo com a inteligência artificial, garantindo que a tecnologia amplia - e não silencia - a voz humana.

Nesse equilíbrio, é essencial que aprendamos a viver e a liderar na era de uma inteligência que já não é apenas humana.

_______

Referências

International Bar Association (IBA). Guidelines on the Use of Generative Artificial Intelligence in Mediation. Mediation Committee of the IBA, junho de 2025. Disponível aqui.

UNESCO. Recommendation on the Ethics of Artificial Intelligence. Paris: UNESCO, 2021. Disponível aqui.

ICFML – Instituto de Certificação e Formação de Mediadores Lusófonos. Guia ICFML de Prática Profissional em Mediação – Vol. 1: Uso Ético e Responsável da Inteligência Artificial na Mediação. Lisboa, 2025. Disponível em:

Brill. Artificial Intelligence and the Law. Leiden: Brill, 2025. Disponível aqui.

Colunistas

Mariana Freitas de Souza é advogada e mediadora. Presidente do ICFML Brasil. Diretora do CBMA. Membro da Comissão de Mediação do Conselho Federal da OAB. Membro da Comissão de Arbitragem da OAB/RJ. Membro da Comissão de Conciliação, Mediação e Arbitragem do IAB. Membro do Global Mediation Panel da ONU. JAMS Weinstein International Fellow. Sócia do PVS Advogados.

Samantha Longo é advogada, mediadora e professora. Membro do FONAREF - Fórum Nacional de Recuperação Empresarial e Falências e membro do Comitê Gestor de Conciliação, ambos do CNJ. Presidente da Comissão de Mediação da OAB/RJ. Diretora de Mediação do CBMA. Doutoranda e Mestre em Direito Empresarial e Cidadania pela UniCuritiba. Capacitada em Negociação e Liderança pela Universidade de Harvard. LLM. em Direito Empresarial pelo IBMEC/RJ. Autora de diversos artigos, coordenadora de obras coletivas, coautora da obra "A Recuperação Empresarial e os Métodos Adequados de Solução de Conflitos" e autora do livro "Direito Empresarial e Cidadania: a responsabilidade da empresa na pacificação dos conflitos". Sócia do Longo Abelha Advogados.

Veja mais no portal
cadastre-se, comente, saiba mais