Migalhas de Peso

IA ou humano? A tecnologia já aprendeu a imitar você?

Em testes conduzidos em 2023, o GPT-4 foi confundido com um ser humano por 54% dos avaliadores, segundo estudo da University of California.

27/5/2025

E se o seu advogado te ligasse pedindo seus dados, mas, na verdade, fosse apenas uma inteligência artificial? Parece cena de ficção científica, mas já é uma possibilidade real. Em um estudo conduzido pela University of California, publicado na revista Nature em 2023, o modelo de linguagem GPT-4 conseguiu enganar 54% dos avaliadores, passando-se por uma pessoa real em interações por texto.

O experimento traz um alerta importante: será que sabemos reconhecer quando estamos lidando com uma IA? Treinadas com base em textos, padrões de fala e comportamento humano, essas tecnologias estão se tornando cada vez mais convincentes a ponto de confundirem até mesmo os mais atentos. 

Em conversas online, em textos lidos no dia a dia e até em artigos científicos, pode já não ser tão fácil identificar o que foi produzido por uma mente humana ou por um algoritmo avançado.

A inteligência artificial já está nos bastidores 

No Brasil, 42% das empresas já utilizam IA para otimizar processos, segundo indicadores da FGV de 2024. É bem provável que muitos dos produtos e serviços que você consome no seu dia a dia tenham passado por alguma etapa automatizada por um sistema e você nem percebeu.

Talvez aquele produto que chegou rápido na sua casa só foi entregue porque um sistema inteligente organizou rotas e previu a demanda. Ou o e-mail com uma oferta feita sob medida para você foi redigido por um algoritmo que analisou seu comportamento online.

A IA está operando nos bastidores, invisível mas decisiva. Automatizando processos como triagem de currículos, atendimento a clientes, análise de relatórios, tradução de documentos, monitoramento de estoques e até detecção de fraudes. Ela acelera, antecipa, corrige, decide.

E sim, por um lado isso é extremamente positivo. A ferramenta está tirando os humanos da repetição e levando os escritórios para um nível inédito de eficiência. Mas também está redefinindo o que chamamos de “trabalho”, “autenticidade” e até mesmo “inteligência”.

A tecnologia, na prática

Os dados nos mostram que esse movimento não vai parar. O que estamos vendo ainda é o início de grandes possibilidades. Segundo projeção da McKinsey, o mercado global de Inteligência Artificial deve movimentar US$1,3 trilhão até 2030. 

No universo jurídico já vemos advogados utilizando assistentes virtuais para montar peças processuais, escritórios que analisam julgamentos em segundos e plataformas que mapeiam riscos contratuais antes mesmo de um cliente apertar “enviar” no e-mail.

Na prática, isso tem reduzido o tempo de trabalho, eliminado falhas humanas e antecipado litígios. Mas a pergunta que persiste é: até onde podemos (ou devemos) delegar decisões jurídicas para uma máquina? Por outro lado, ela levanta questões sobre responsabilidade, imparcialidade e até a própria ideia de Justiça.

Considerando a questão citada de que a IA aprende com tudo o que ensinamos, também podemos estar ensinando nossos próprios erros como sociedade, seja por meio de preconceitos, falhas éticas ou padrões distorcidos de julgamentos.

Temos aqui dois pontos. Sim, a computação cognitiva oferece vantagens reais para otimizar inúmeros processos. Mas não podemos esquecer que ela não substitui tudo. Especialmente, não substitui a empatia e a sensibilidade que um advogado deve ter.

A linha tênue que precisamos traçar está justamente em reconhecer as limitações da inovação para que ela seja aliada e não um risco. Isso começa pela escolha de ferramentas confiáveis. Plataformas como a ADVBOX, por exemplo, mostram como a tecnologia deve ser aplicada com segurança no setor jurídico. 

Ao automatizar rotinas com transparência, controle e dados seguros, o sistema permite que o defensor dedique mais tempo ao que só um ser humano consegue fazer: analisar contextos, fazer escolhas com base em valores e cuidar de pessoas.

Até que ponto confiar na IA?

A utilização da IA para se passar por outra pessoa é um tema muito mais complexo do que parece à primeira vista. Uma pesquisa recente da Stanford University revelou que 67% das pessoas não conseguem diferenciar respostas escritas por uma IA daquelas escritas por humanos em chats. Isso significa que, na maioria das vezes, não sabemos com quem estamos realmente falando.

Se você tem uma empresa com trabalho remoto e decide contratar alguém, como saber se há de fato um indivíduo do outro lado da tela? Se você recebe um e-mail solicitando informações sensíveis, como garantir que foi enviado por um alguém de confiança e não por um sistema treinado para parecer confiável?

Estamos entrando em uma era em que a identidade não se refere somente a um número de CPF ou uma foto de perfil. Ela se tornou também a soma de sinais digitais, históricos de comportamento e interações, e todos esses sinais são passíveis de replicação ou simulação por algoritmos.

Em tempos onde uma ferramenta consegue conversar como um amigo, escrever como um especialista ou se apresentar como um candidato a vaga de emprego, a responsabilidade recai sobre quem desenvolve, contrata e utiliza essas tecnologias.

Nesse sentido, escritórios precisarão adotar mecanismos de verificação mais completos. Assinaturas digitais, autenticação multifatorial, entrevistas em vídeo com verificação biométrica, e até rastreamento de padrões de digitação ou comportamento tendem a se tornar o novo normal. Mas isso não é suficiente.

Precisamos de uma nova cultura digital, baseada na transparência, ética e consentimento. Em que o uso de IA seja informado, monitorado e limitado em contextos sensíveis, especialmente quando envolve dados pessoais, resoluções jurídicas, contratações, diagnósticos de saúde ou interações emocionais.

Outras dicas podem ser observadas no dia a dia, como:

O que acontece quando a IA evolui mais rápido do que a legislação?

A IA já está aqui, nos bastidores da vida cotidiana, tomando forma em e-mails, vozes, decisões e conversas. Às vezes ajudando, outras confundindo, e em muitos casos passando despercebida.

Mas talvez o ponto mais delicado não seja o que o sistema é capaz de fazer, e sim o que ele pode se tornar quando não há regras claras sobre seus limites. No Brasil, ainda não existe uma legislação específica que regulamente o uso da IA. Ou seja, vivemos diante de muitas possibilidades, mas sem um guia legislativo que estabeleça os limites necessários, enquanto a tecnologia só cresce.

O desafio está em reconhecer que estamos reconfigurando a forma como confiamos, nos relacionamos e decidimos. A IA já sabe se parecer conosco. Mas a questão que fica é: saberemos continuar sendo nós mesmos em meio a tantas simulações?

Eduardo Koetz
Eduardo Koetz é advogado, sócio-fundador da Koetz Advocacia e CEO do software jurídico ADVBOX . Especialista em tecnologia e gestão, ele também se destaca como palestrante em eventos jurídicos.

Veja mais no portal
cadastre-se, comente, saiba mais

Artigos Mais Lidos

ADPF do aborto - O poder de legislar é exclusivamente do Congresso Nacional

2/12/2025

Falecimento e conta conjunta: O banco pode reter todo o saldo?

2/12/2025

Concurso público e convocação tardia: STF mantém decisão que garantiu direito de candidato da Paraíba

2/12/2025

Não há incidência do IPI na transferência de salvados à seguradora

2/12/2025

Entre capital e compliance: Por que a regulação acelera o M&A no ecossistema fintech?

2/12/2025