A IA - Inteligência Artificial deixou de ser uma promessa futurista para se consolidar como realidade nas operações corporativas e jurídicas. Entretanto, o entusiasmo generalizado com o potencial da tecnologia nem sempre se traduz em resultados concretos. De acordo com o estudo global do IBM Institute for Business Value, publicado em 2025, apenas 25% dos CEOs afirmam que suas iniciativas de IA atingiram o ROI - retorno esperado sobre o investimento. O dado evidencia um ponto crucial: sem governança, base jurídica sólida e supervisão humana, o entusiasmo tecnológico pode rapidamente se converter em risco jurídico, financeiro e reputacional.
No Brasil, o Marco Civil da Internet e a LGPD já estabeleceram parâmetros claros de responsabilidade e governança no tratamento de dados, que são a base de qualquer projeto de IA. A ausência de políticas internas robustas ou a negligência na curadoria de dados pode caracterizar falha de governança corporativa e gerar responsabilização objetiva em caso de danos. Além disso, a resolução 332/20 do CNJ reforça a importância da transparência, da mitigação de vieses algorítmicos e da supervisão humana em sistemas de inteligência artificial. Esses princípios também devem nortear a atuação empresarial e contratual.
Outro ponto de atenção diz respeito ao desalinhamento entre a tecnologia contratada e os objetivos do negócio. Projetos de IA frequentemente fracassam por falta de integração com as metas estratégicas e contratuais da empresa. Soluções desenvolvidas sem conexão com as obrigações assumidas, como níveis de serviço, indicadores de desempenho e padrões de entrega, tendem a gerar promessas que a tecnologia não consegue cumprir. Isso amplia a exposição a litígios e compromete a confiança de clientes e parceiros. Nesse contexto, o papel do jurídico é garantir que os contratos de tecnologia incluam cláusulas específicas sobre supervisão humana, rastreabilidade algorítmica, direito de auditoria técnica e protocolos de gestão de incidentes. Essas previsões funcionam como instrumentos de blindagem jurídica e mecanismos de governança contratual.
A governança de dados é outro eixo sensível. A utilização de bases sem curadoria, segurança ou critérios éticos claros pode resultar em violações de direitos da personalidade, quebra de sigilo e responsabilizações administrativas perante a ANPD - Autoridade Nacional de Proteção de Dados. O art. 20 da LGPD garante ao titular o direito de revisão de decisões automatizadas e o acesso aos critérios utilizados, exigindo das empresas trilhas de auditoria, explicação mínima e processos formais de revisão humana. De forma paralela, decisões automatizadas em áreas sensíveis, como crédito, precificação ou recrutamento, devem observar os princípios da dignidade da pessoa humana e da não discriminação, evitando vieses e impactos desproporcionais.
No cenário internacional, o recém-aprovado AI Act da União Europeia reforça a tendência global de regulamentar a inteligência artificial sob uma ótica de gestão de risco. O regulamento europeu classifica sistemas de IA conforme seu nível de risco e impõe obrigações proporcionais à criticidade do uso, incluindo documentação técnica, supervisão humana e auditoria contínua. Para organizações que atuam ou se relacionam com o mercado europeu, a adoção dessas diretrizes já é uma exigência de conformidade e competitividade.
Diante desse contexto, o jurídico moderno deixa de exercer apenas uma função de controle e passa a atuar como arquiteto de governança tecnológica. Sua responsabilidade é transversal, conectando compliance, performance e inovação. Boas práticas já consolidadas em estruturas internacionais, como o AI Risk Management Framework do NIST e as normas ISO/IEC 23894 e 42001, oferecem caminhos práticos para a implantação de políticas internas, com ênfase no ciclo de vida da IA: planejamento, avaliação de risco, monitoramento de vieses, auditoria técnica e melhoria contínua. Também é recomendável a criação de comitês de ética e governança de IA, integrando jurídico, tecnologia, compliance e negócios, com agendas formais e responsabilidades definidas. Essas medidas transformam a inteligência artificial em um ativo estratégico com segurança jurídica, em vez de um vetor de incerteza.
A supervisão humana permanece o elo essencial entre eficiência e responsabilidade. A automação de processos e a análise de grandes volumes de dados potencializam a capacidade das organizações, mas não substituem o discernimento e o senso crítico humano. Erros algorítmicos sem monitoramento podem se converter em litígios de grande repercussão, danos à imagem e prejuízos financeiros. É na interação entre o profissional e a máquina que reside o verdadeiro diferencial competitivo: eficiência aliada à conformidade e à ética.
Em síntese, a transição do hype para a gestão responsável da inteligência artificial é inevitável para empresas e escritórios que buscam solidez e longevidade. O entusiasmo tecnológico, quando não acompanhado de governança, estratégia e supervisão humana, tende a gerar mais riscos do que resultados. Com apenas um quarto das iniciativas alcançando o retorno esperado, o cenário exige maturidade digital, estrutura jurídica e accountability corporativa. A tecnologia, sem lastro ético e jurídico, é tão instável quanto o entusiasmo que a impulsiona. O verdadeiro diferencial competitivo está em compreender que a inteligência artificial não substitui o humano, mas o potencializa quando utilizada com responsabilidade, técnica e visão estratégica.
O futuro da advocacia não é automatizado. É estratégico, responsável e humano.
_______
Referências
IBM Institute for Business Value (2025) – IBM Study: CEOs double down on AI while navigating enterprise hurdles. Disponível aqui: https://newsroom.ibm.com/2025-05-06-ibm-study-ceos-double-down-on-ai-while-navigating-enterprise-hurdles
Lei nº 12.965/2014 (Marco Civil da Internet). Disponível aqui: https://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm
Lei nº 13.709/2018 (Lei Geral de Proteção de Dados - LGPD). Disponível aqui: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm
Resolução CNJ nº 332/2020 – Diretrizes de governança e uso de IA no Judiciário. Disponível aqui: https://atos.cnj.jus.br/atos/detalhar/3606
AI Act – Artificial Intelligence Act da União Europeia (2024). Disponível aqui: https://artificialintelligenceact.eu/
NIST AI Risk Management Framework (AI RMF 1.0). Disponível aqui: https://www.nist.gov/itl/ai-risk-management-framework
ISO/IEC 23894:2023 - Artificial Intelligence Risk Management. Disponível aqui: https://www.iso.org/standard/77304.html
ISO/IEC 42001:2023 - Artificial Intelligence Management System. Disponível aqui: https://www.iso.org/standard/81230.html