70 anos de ilusões de inteligência e o desafio de continuar humano
Anos depois de Alan Turing propor o “Jogo da Imitação”, as máquinas já não tentam apenas nos enganar. O desafio agora é continuar humano em meio a inteligências que apenas parecem pensar.
domingo, 22 de fevereiro de 2026
Atualizado em 20 de fevereiro de 2026 15:08
Quando Alan Turing imaginou uma máquina tentando enganar um humano, talvez não suspeitasse que, 70 anos depois, milhões de pessoas fariam exatamente o oposto, tentando provar a si mesmas que ainda pensam melhor do que um algoritmo.
A frase resume o paradoxo contemporâneo da inteligência artificial: quanto mais tentamos criar máquinas que pensem, mais precisamos redefinir o que significa pensar. O avanço da IA, da teoria à prática, é também uma história sobre nós, sobre a vaidade humana de criar à própria imagem e sobre o medo de perder o controle dessa criação.
Sete décadas separam o “Jogo da Imitação”, proposto por Alan Turing em 1950, das conversas diárias com o ChatGPT, Gemini, Claude ou Copilot. Nesse intervalo, construímos computadores que aprendem, redes neurais que simulam o cérebro e sistemas capazes de escrever textos, compor músicas e argumentar como advogados. Mas, no fundo, seguimos tentando responder à mesma pergunta de Turing: as máquinas podem pensar?
O nascimento de uma ideia: O jogo da imitação
Em 1950, o matemático britânico Alan Turing publicou o artigo “Computing Machinery and Intelligence”, em que propôs um experimento mental que ficaria conhecido como Teste de Turing. A ideia era simples: se uma máquina fosse capaz de sustentar uma conversa a ponto de enganar um humano sobre sua identidade, ela poderia ser considerada inteligente.
Turing não estava realmente preocupado em definir “pensar”, ele queria escapar do debate filosófico interminável e propor uma prova prática. O problema é que, ao longo do tempo, o teste passou a ser tomado ao pé da letra, confundimos imitação com inteligência, performance com compreensão.
Setenta anos depois, esse mal-entendido ainda está no centro do debate sobre a IA. Modelos como o ChatGPT passam no “teste” em diversas situações, respondem de forma convincente, escrevem com estilo humano, mantêm coerência e até humor. Mas o que está acontecendo ali é um cálculo estatístico, não uma forma de consciência.
Turing talvez sorrisse diante dessa ironia, ele sabia que a linha entre simular e compreender seria tênue. E talvez reconhecesse, com certo espanto, que a humanidade gastaria mais tempo ensinando máquinas a parecer humanas do que aprendendo a pensar melhor sobre o próprio pensamento.
O mito fundador de Dartmouth e o otimismo dos pioneiros
Se Turing lançou a pergunta, foi o encontro de Dartmouth College, em 1956, que batizou a resposta. John McCarthy, Marvin Minsky, Claude Shannon e outros pesquisadores reuniram-se para discutir a possibilidade de criar “máquinas que usem a linguagem, formem abstrações e melhorem por conta própria”. Nascia ali o termo “Inteligência Artificial”.
A ambição era quase ingênua. Os cientistas acreditavam que bastariam algumas décadas para reproduzir a mente humana em silício. Apostava-se que bastava mais poder de processamento e algoritmos melhores para chegar lá.
O que se seguiu foi um ciclo de euforia e frustração. O entusiasmo inicial deu lugar a períodos conhecidos como “invernos da IA”, em que o financiamento secava e o interesse acadêmico desaparecia. A cada novo avanço, como o surgimento das redes neurais nos anos 1980 ou o aprendizado profundo nos anos 2010, renascia a esperança de que “agora vai”.
Dessa história nasce o que o professor Anderson Rocha, da Unicamp, chama de “ilusão de inteligência”: a tendência de projetar nas máquinas uma compreensão que elas não têm. A cada novo salto tecnológico, acreditamos que estamos diante de uma entidade pensante, até percebermos que estamos apenas diante de um sistema eficiente em correlações, não em significados.
A era da imitação perfeita
Quando a OpenAI lançou o ChatGPT em 2022, inaugurou um novo tipo de espanto. Pela primeira vez uma máquina não só conversava de forma convincente, mas também produzia conhecimento linguístico com fluidez quase humana. Textos jurídicos, roteiros de vídeo, petições e artigos passaram a ser redigidos em minutos.
Para o público, a sensação era de que a máquina “entendia”, mas, como explica a jornalista Karen Hao, especialista em ética e IA, o que ocorre é uma estatística em escala gigantesca. O modelo prevê qual é a próxima palavra provável com base em bilhões de exemplos. A coerência que percebemos é fruto de probabilidade, não de intenção.
Isso, porém, não diminui o impacto cultural da tecnologia. Pela primeira vez, a linguagem passou a ser compartilhada com uma entidade não biológica. E é justamente por isso que as profissões baseadas em linguagem, como o Direito, a literatura e o jornalismo, sentem-se tão abaladas.
O ChatGPT e seus pares não apenas automatizam tarefas, eles redesenham o que entendemos por raciocínio. A máquina não precisa saber o que é “justiça” para redigir uma peça convincente. E, se a função da linguagem jurídica é persuadir dentro de regras formais, a IA o faz com eficiência assustadora.
O impacto na advocacia
Para o profissional do Direito, a ascensão das IAs generativas não é apenas uma questão de produtividade, é uma crise de identidade intelectual. Durante séculos, o raciocínio jurídico foi o símbolo da racionalidade humana: lógica, argumentação e coerência. Agora, um sistema matemático é capaz de reproduzir tudo isso em segundos.
A questão não é se as máquinas vão substituir advogados, mas quais partes do pensamento jurídico podem ser automatizadas. Análise de jurisprudência, elaboração de petições, leitura de contratos e gestão de prazos já estão sendo delegadas a algoritmos. Isso libera tempo, mas também pode gerar uma dependência perigosa, se o profissional abdicar do juízo crítico.
A lógica pode ser automatizada, o julgamento, não.
Pensar ou parecer pensar?
O filósofo John Searle, em seu famoso experimento mental da “sala chinesa”, mostrou o limite da simulação. Imagine uma pessoa trancada em um quarto, recebendo perguntas em chinês e consultando um manual para responder corretamente, sem entender nada da língua. De fora, parece que ela “fala chinês”, mas na verdade, está apenas manipulando símbolos de forma sintática, não semântica.
É exatamente o que fazem as IAs generativas, elas operam na sintaxe, não no significado. Respondem de modo plausível, mas sem saber o que estão dizendo.
Isso não significa que sejam inúteis, significa apenas que a inteligência humana é mais do que a soma de padrões linguísticos. Pensar envolve intenção, consciência, emoção e corpo.
Ao mesmo tempo, é preciso reconhecer que a distinção entre simular e compreender está cada vez mais borrada. Quando uma IA redige um parecer jurídico ou sintetiza um acórdão, a diferença prática entre “entender” e “parecer entender” torna-se quase irrelevante.
É aqui que surge o desafio ético: até que ponto estamos dispostos a aceitar a aparência de pensamento como suficiente?
O perigo da delegação cognitiva
Toda tecnologia carrega uma transferência de poder, eno caso da IA, essa transferência é cognitiva. Delegamos à máquina não apenas tarefas, mas partes do nosso próprio raciocínio, e cada vez que fazemos isso, algo muda no modo como pensamos.
O risco não está na IA se tornar “consciente”, mas em nos tornarmos menos conscientes do que fazemos. Ao confiar cegamente na precisão de um algoritmo, deixamos de questionar suas premissas, seus vieses e suas consequências.
Em áreas como o Direito, essa delegação é especialmente perigosa, o julgamento humano é construído sobre interpretação, ambiguidade e valores. Nenhum modelo de linguagem pode capturar plenamente essa complexidade. Um sistema pode gerar um parecer impecável e, ainda assim, reproduzir injustiças presentes nos dados com que foi treinado.
Por isso, o papel do profissional jurídico na era da IA é o de curador e intérprete. Cabe a ele avaliar quando a automação é útil e quando ela ameaça o princípio de justiça. A tecnologia não elimina o raciocínio humano, e sim obriga-o a ser mais rigoroso.
A nova fronteira da inteligência
Ao longo desses 70 anos, a inteligência artificial serviu como espelho, cada avanço técnico nos obrigou a repensar o que significa ser inteligente. Primeiro, acreditamos que pensar era calcular. Depois, que era aprender. Agora, parece ser criar, ou ao menos produzir algo original.
Mas talvez o erro esteja na própria metáfora, a IA não pensa como nós, e isso não é um defeito, é uma diferença ontológica. Ela processa informações, nós interpretamos sentidos. Ela reconhece padrões, nós criamos significado.
O que está em jogo, portanto, não é a supremacia das máquinas, mas a redefinição do humano. À medida que as fronteiras se confundem, precisamos escolher se queremos ser melhores imitadores das máquinas ou melhores intérpretes do mundo.
Continuar humano
Setenta anos depois de Turing, ainda não sabemos responder com segurança se as máquinas pensam. Talvez a pergunta mais interessante seja outra: o que acontece conosco quando acreditamos que elas pensam?
O fascínio pela IA revela tanto o desejo de criar quanto o medo de ser substituído. Mas o verdadeiro perigo não está na máquina ultrapassar o humano, está no humano desistir de pensar por conta própria.
Continuar humano, nesse contexto, significa cultivar a dúvida, o senso crítico, a capacidade de interpretar. Significa usar a tecnologia como lente, não como espelho.
A história da IA, de Turing ao ChatGPT, é também a história da nossa própria tentativa de compreender a mente. E talvez, ao tentar ensinar as máquinas a pensar, estejamos apenas aprendendo, com mais clareza, o que significa pensar de verdade.


