A inteligência artificial já não é um tema distante ou restrito aos tribunais. No setor privado - especialmente nas práticas de mediação e resolução consensual de conflitos -, a IA começa a redefinir a forma como profissionais gerem informação, estruturam processos e até refletem sobre decisões e opções de diálogo.
O avanço é inevitável. Mas o modo como escolhemos integrá-lo é que determinará se essa transformação será um salto ético ou apenas uma corrida tecnológica.
Nos últimos anos, o campo da mediação privada tem assistido a uma transição silenciosa: programas de apoio à preparação de casos, plataformas que utilizam IA para mapear padrões de conflito, assistentes virtuais que ajudam na redação de comunicações e relatórios.
Estas ferramentas prometem eficiência - e, de facto, podem libertar o(a) mediador(a) para se concentrar no essencial: o diálogo humano.
Mas também levantam questões complexas:
- Como garantir a confidencialidade quando dados são processados por sistemas automatizados?
- Que limites existem para o uso de ferramentas generativas no apoio à reflexão ou à formulação de propostas?
- E, sobretudo, como assegurar que a tecnologia não substitui, mas potencia a escuta e o papel de facilitador do mediador?
Estas perguntas exigem um debate global. Organizações internacionais como a IBA - International Bar Association e a UNESCO têm vindo a propor princípios éticos para o uso responsável da inteligência artificial no Direito e na mediação.
A IBA, nas suas Guidelines on the Use of Generative Artificial Intelligence in Mediation (2025), oferece um enquadramento prático e normativo para o uso ético da IA, sublinhando princípios como o consentimento informado, a supervisão humana, a transparência e a neutralidade algorítmica.
A UNESCO, na sua Recommendation on the Ethics of Artificial Intelligence (2021), estabelece princípios universais que defendem um uso da tecnologia centrado no ser humano, baseado na dignidade, autonomia e responsabilidade.
Como sublinha o Guia ICFML de Prática Profissional em Mediação - Vol. 1, Uso Ético e Responsável da Inteligência Artificial na Mediação, a tecnologia deve servir o diálogo humano, sem comprometer os valores centrais da mediação: confidencialidade, neutralidade, empatia e integridade.
Este último documento - concebido como orientações flexíveis e evolutivas - propõe boas práticas, checklists e modelos operacionais éticos para apoiar mediadores(as) na integração segura e informada da IA nas suas rotinas profissionais. Mais do que um manual, é um convite à reflexão coletiva sobre o futuro da profissão.
É indiscutível que o uso da inteligência artificial na mediação representa uma oportunidade poderosa quando orientado para ampliar o acesso, apoiar a preparação e fortalecer a qualidade das decisões humanas.
As suas aplicações podem incluir a análise de emoções e dinâmicas relacionais, a avaliação de riscos e padrões de comportamento, o apoio à criação de opções e à identificação de zonas de acordo possível, a análise factual das informações do caso, a construção da linha temporal do conflito e até o apoio a advogados e mediadores na formulação de argumentos e decisões mais informadas.
Por fazer tudo isto - sem substituir o discernimento, a empatia e a escuta humana - a IA torna-se um copiloto do pensamento racional, um instrumento que complementa, mas não substitui (pelo menos até hoje), a inteligência emocional e ética que a mediação exige.
O essencial é garantir que a tecnologia apoia o trabalho humano sem o substituir, mantendo a essência da mediação - a confiança, o diálogo e a compreensão entre pessoas.
Como recorda o livro Artificial Intelligence and the Law (Brill, 2025), restringir o conceito de “segurança em IA” à mera fiabilidade técnica é um equívoco perigoso. A indústria tende a enquadrar a segurança da IA como uma questão de desempenho do sistema, ignorando os riscos sociais e humanos que permanecem sem resposta.
Essa visão reforça o princípio de que a segurança ética não se mede pela ausência de falhas tecnológicas, mas pela presença de responsabilidade humana.
A inteligência artificial abre, assim, oportunidades extraordinárias para a mediação - desde a gestão de informação à criação de novos modelos de diálogo.
Mas o futuro da mediação não será apenas tecnológico: será ético, humano e colaborativo, assente numa responsabilidade partilhada entre pessoas e tecnologia - um espaço onde o humano e o digital aprendem a dialogar.
Afinal, a mediação é, por essência, diálogo. E o grande desafio que agora enfrentamos é compreender como integrar este novo diálogo com a inteligência artificial, garantindo que a tecnologia amplia - e não silencia - a voz humana.
Nesse equilíbrio, é essencial que aprendamos a viver e a liderar na era de uma inteligência que já não é apenas humana.
_______
Referências
International Bar Association (IBA). Guidelines on the Use of Generative Artificial Intelligence in Mediation. Mediation Committee of the IBA, junho de 2025. Disponível aqui.
UNESCO. Recommendation on the Ethics of Artificial Intelligence. Paris: UNESCO, 2021. Disponível aqui.
ICFML – Instituto de Certificação e Formação de Mediadores Lusófonos. Guia ICFML de Prática Profissional em Mediação – Vol. 1: Uso Ético e Responsável da Inteligência Artificial na Mediação. Lisboa, 2025. Disponível em:
Brill. Artificial Intelligence and the Law. Leiden: Brill, 2025. Disponível aqui.