IA ou humano? A tecnologia já aprendeu a imitar você?
Em testes conduzidos em 2023, o GPT-4 foi confundido com um ser humano por 54% dos avaliadores, segundo estudo da University of California.
terça-feira, 27 de maio de 2025
Atualizado às 11:08
E se o seu advogado te ligasse pedindo seus dados, mas, na verdade, fosse apenas uma inteligência artificial? Parece cena de ficção científica, mas já é uma possibilidade real. Em um estudo conduzido pela University of California, publicado na revista Nature em 2023, o modelo de linguagem GPT-4 conseguiu enganar 54% dos avaliadores, passando-se por uma pessoa real em interações por texto.
O experimento traz um alerta importante: será que sabemos reconhecer quando estamos lidando com uma IA? Treinadas com base em textos, padrões de fala e comportamento humano, essas tecnologias estão se tornando cada vez mais convincentes a ponto de confundirem até mesmo os mais atentos.
Em conversas online, em textos lidos no dia a dia e até em artigos científicos, pode já não ser tão fácil identificar o que foi produzido por uma mente humana ou por um algoritmo avançado.
A inteligência artificial já está nos bastidores
No Brasil, 42% das empresas já utilizam IA para otimizar processos, segundo indicadores da FGV de 2024. É bem provável que muitos dos produtos e serviços que você consome no seu dia a dia tenham passado por alguma etapa automatizada por um sistema e você nem percebeu.
Talvez aquele produto que chegou rápido na sua casa só foi entregue porque um sistema inteligente organizou rotas e previu a demanda. Ou o e-mail com uma oferta feita sob medida para você foi redigido por um algoritmo que analisou seu comportamento online.
A IA está operando nos bastidores, invisível mas decisiva. Automatizando processos como triagem de currículos, atendimento a clientes, análise de relatórios, tradução de documentos, monitoramento de estoques e até detecção de fraudes. Ela acelera, antecipa, corrige, decide.
E sim, por um lado isso é extremamente positivo. A ferramenta está tirando os humanos da repetição e levando os escritórios para um nível inédito de eficiência. Mas também está redefinindo o que chamamos de "trabalho", "autenticidade" e até mesmo "inteligência".
A tecnologia, na prática
Os dados nos mostram que esse movimento não vai parar. O que estamos vendo ainda é o início de grandes possibilidades. Segundo projeção da McKinsey, o mercado global de Inteligência Artificial deve movimentar US$1,3 trilhão até 2030.
No universo jurídico já vemos advogados utilizando assistentes virtuais para montar peças processuais, escritórios que analisam julgamentos em segundos e plataformas que mapeiam riscos contratuais antes mesmo de um cliente apertar "enviar" no e-mail.
Na prática, isso tem reduzido o tempo de trabalho, eliminado falhas humanas e antecipado litígios. Mas a pergunta que persiste é: até onde podemos (ou devemos) delegar decisões jurídicas para uma máquina? Por outro lado, ela levanta questões sobre responsabilidade, imparcialidade e até a própria ideia de Justiça.
Considerando a questão citada de que a IA aprende com tudo o que ensinamos, também podemos estar ensinando nossos próprios erros como sociedade, seja por meio de preconceitos, falhas éticas ou padrões distorcidos de julgamentos.
Temos aqui dois pontos. Sim, a computação cognitiva oferece vantagens reais para otimizar inúmeros processos. Mas não podemos esquecer que ela não substitui tudo. Especialmente, não substitui a empatia e a sensibilidade que um advogado deve ter.
A linha tênue que precisamos traçar está justamente em reconhecer as limitações da inovação para que ela seja aliada e não um risco. Isso começa pela escolha de ferramentas confiáveis. Plataformas como a ADVBOX, por exemplo, mostram como a tecnologia deve ser aplicada com segurança no setor jurídico.
Ao automatizar rotinas com transparência, controle e dados seguros, o sistema permite que o defensor dedique mais tempo ao que só um ser humano consegue fazer: analisar contextos, fazer escolhas com base em valores e cuidar de pessoas.
Até que ponto confiar na IA?
A utilização da IA para se passar por outra pessoa é um tema muito mais complexo do que parece à primeira vista. Uma pesquisa recente da Stanford University revelou que 67% das pessoas não conseguem diferenciar respostas escritas por uma IA daquelas escritas por humanos em chats. Isso significa que, na maioria das vezes, não sabemos com quem estamos realmente falando.
Se você tem uma empresa com trabalho remoto e decide contratar alguém, como saber se há de fato um indivíduo do outro lado da tela? Se você recebe um e-mail solicitando informações sensíveis, como garantir que foi enviado por um alguém de confiança e não por um sistema treinado para parecer confiável?
Estamos entrando em uma era em que a identidade não se refere somente a um número de CPF ou uma foto de perfil. Ela se tornou também a soma de sinais digitais, históricos de comportamento e interações, e todos esses sinais são passíveis de replicação ou simulação por algoritmos.
Em tempos onde uma ferramenta consegue conversar como um amigo, escrever como um especialista ou se apresentar como um candidato a vaga de emprego, a responsabilidade recai sobre quem desenvolve, contrata e utiliza essas tecnologias.
Nesse sentido, escritórios precisarão adotar mecanismos de verificação mais completos. Assinaturas digitais, autenticação multifatorial, entrevistas em vídeo com verificação biométrica, e até rastreamento de padrões de digitação ou comportamento tendem a se tornar o novo normal. Mas isso não é suficiente.
Precisamos de uma nova cultura digital, baseada na transparência, ética e consentimento. Em que o uso de IA seja informado, monitorado e limitado em contextos sensíveis, especialmente quando envolve dados pessoais, resoluções jurídicas, contratações, diagnósticos de saúde ou interações emocionais.
Outras dicas podem ser observadas no dia a dia, como:
- Desconfiar de mensagens excessivamente polidas ou genéricas, especialmente em contatos inesperados. IAs tendem a usar uma linguagem impecável, mas impessoal;
- Ficar atento ao ritmo das respostas, máquinas geralmente respondem com rapidez extrema, sem pausas naturais de digitação;
- Fazer perguntas mais subjetivas ou pessoais, que exigem vivência, opinião ou memória emocional. Isso costuma desestabilizar respostas automatizadas;
- Observar inconsistências sutis, como mudança repentina de tom, uso de expressões incompatíveis com a situação ou erros que humanos normalmente não cometeriam (como nomes trocados ou repetições robóticas);
- Confirmar identidades por outros canais, sempre que estiver diante de conversas importantes, especialmente envolvendo dinheiro ou informações sensíveis.
O que acontece quando a IA evolui mais rápido do que a legislação?
A IA já está aqui, nos bastidores da vida cotidiana, tomando forma em e-mails, vozes, decisões e conversas. Às vezes ajudando, outras confundindo, e em muitos casos passando despercebida.
Mas talvez o ponto mais delicado não seja o que o sistema é capaz de fazer, e sim o que ele pode se tornar quando não há regras claras sobre seus limites. No Brasil, ainda não existe uma legislação específica que regulamente o uso da IA. Ou seja, vivemos diante de muitas possibilidades, mas sem um guia legislativo que estabeleça os limites necessários, enquanto a tecnologia só cresce.
O desafio está em reconhecer que estamos reconfigurando a forma como confiamos, nos relacionamos e decidimos. A IA já sabe se parecer conosco. Mas a questão que fica é: saberemos continuar sendo nós mesmos em meio a tantas simulações?


