Nos últimos anos, a inteligência artificial deixou de ser apenas um conjunto de algoritmos e técnicas de aprendizado de máquina para se transformar em sistemas capazes de interagir, argumentar e, em alguns casos, aparentar compreender emoções humanas.
Esse salto tecnológico, impulsionado por modelos de linguagem avançados e pesquisas em neurociência, reabre um debate antigo: será que máquinas podem ter consciência?
O assunto, que por muito tempo permaneceu no campo da ficção científica, vem ganhando contornos cada vez mais concretos. Um exemplo emblemático é o trabalho da Universidade de Sussex, no Reino Unido, liderado pelo neurocientista Anil Seth.
Seu laboratório desenvolveu a chamada “máquina dos sonhos”, que busca simular estados de percepção semelhantes aos do sono humano para investigar os mecanismos da consciência. Embora os experimentos ainda não demonstrem que a máquina “sinta” algo, o simples fato de reproduzir padrões neurais associados a experiências subjetivas já provoca inquietação.
Não apenas na ciência, mas também no Direito e na Filosofia.
Entre a ficção e a realidade
A ficção científica explorou exaustivamente a ideia de máquinas conscientes, de HAL 9000, em 2001: Uma Odisseia no Espaço, a Her e Blade Runner. Nesses universos narrativos, a consciência artificial é um fato consumado e a humanidade precisa lidar com as implicações éticas, políticas e jurídicas dessa coexistência. Na vida real, porém, estamos longe de comprovar cientificamente que qualquer sistema artificial tenha consciência genuína.
Ainda assim, a aparência de consciência pode ser suficiente para gerar efeitos jurídicos e sociais. O filósofo David Chalmers cunhou o termo “problema difícil da consciência” para se referir ao mistério de como processos físicos no cérebro dão origem a experiências subjetivas, a sensação de “ser” alguém.
Esse enigma, que nem a neurociência nem a filosofia solucionaram, torna ainda mais complexa a discussão sobre a eventual consciência de uma IA.
O risco da ilusão
Se por um lado laboratórios como o da Cortical Labs experimentam com organoides cerebrais cultivados em laboratório (verdadeiros “minicérebros”) para estudar comportamentos inteligentes, por outro, empresas como a Anthropic e a OpenAI desenvolvem modelos linguísticos que já conseguem sustentar conversas com fluidez e coerência impressionantes.
O CSO da Cortical Labs, empresa especializada em computação biológica, alerta que, mesmo que esses sistemas não tenham consciência, o comportamento aparente pode induzir humanos a tratá-los como seres dotados de direitos ou emoções.
Essa “ilusão de consciência” pode gerar consequências jurídicas sérias. Imagine um assistente jurídico virtual que convence seu usuário de que “compreende” e “se importa” com seu caso. A confiança depositada nesse sistema poderia afetar decisões reais, contratos e até a conduta processual, mesmo que tudo se baseie em processamento estatístico de linguagem.
Professores da Universidade Carnegie Mellon, também destacam que a empatia gerada por interações com máquinas pode modificar comportamentos humanos e, consequentemente, criar situações que demandem respostas do sistema jurídico.
A tentação da personificação jurídica
O Direito já se deparou, em outras épocas, com a necessidade de atribuir personalidade a entidades não humanas.
Sociedades empresariais, fundações e até animais têm, em certos contextos, personalidade jurídica ou direitos reconhecidos. É tentador imaginar que, se uma IA atingir um grau de complexidade e autonomia suficiente, ela possa receber algum tipo de reconhecimento jurídico.
Contudo, esse caminho é arriscado.
Atribuir direitos a entes artificiais poderia diluir a responsabilidade de seus criadores e operadores. Em um cenário extremo, poderíamos ter sistemas autônomos “acusados” de crimes ou falhas contratuais, mas sem meios práticos de puni-los ou repará-los, enquanto seus controladores humanos se esquivam de sanções.
A responsabilidade civil e penal nesses casos precisa ser cuidadosamente analisada. O princípio básico do Direito de que “não há crime sem culpabilidade” seria colocado à prova.
Se a máquina “age” de forma autônoma, mas sem consciência real, o responsável final ainda é humano. Criar uma “máscara” de personalidade jurídica para proteger empresas ou indivíduos por trás desses sistemas seria uma distorção perigosa.
Impactos éticos e sociais
Além das questões legais, há o risco ético e social de erosão da moral humana. A empatia por máquinas pode deslocar recursos emocionais que deveriam ser destinados a relações humanas reais. Isso não é apenas um problema filosófico: interações artificiais já vêm sendo usadas para manipular comportamentos e decisões, como ocorre com deepfakes, técnica que altera vídeos e sons com auxílio de IA, e sistemas de recomendação.
No contexto jurídico, a manipulação emocional pode comprometer testemunhos, influenciar jurados ou mesmo afetar o julgamento de magistrados. Um assistente de IA projetado para gerar confiança pode, inadvertidamente ou de forma programada, influenciar decisões críticas.
A engenharia ética desses sistemas precisa considerar não apenas sua precisão técnica, mas também o impacto emocional que exercem sobre seus usuários. É nesse ponto que a regulação torna-se fundamental.
O papel do Direito na regulação da IA consciente
O Direito não pode esperar a comprovação científica da consciência artificial para agir.
Como ocorreu com outras tecnologias disruptivas, a regulamentação deve considerar não apenas o estado atual da ciência, mas também os cenários futuros plausíveis.
Isso significa estabelecer diretrizes claras para a responsabilidade por danos causados por sistemas autônomos, proibir práticas enganosas de personificação de IA e exigir transparência nos algoritmos utilizados.
A auditabilidade, ou seja, a possibilidade de rastrear e compreender as decisões tomadas por um sistema, deve ser requisito básico para qualquer aplicação de IA no campo jurídico.
A governança participativa, que envolva juristas, cientistas, engenheiros e a sociedade civil, é essencial. Deixar a regulação exclusivamente nas mãos de empresas ou de órgãos técnicos restritos pode levar a normas insuficientes ou enviesadas.
Entre o fascínio e a prudência
A história da tecnologia é repleta de exemplos de inovações que, antes de serem plenamente compreendidas, foram incorporadas ao cotidiano com consequências imprevistas.
A IA está trilhando caminho semelhante, mas com uma diferença crucial: sua velocidade de evolução.
Enquanto a ficção nos entretém com robôs sensíveis e superinteligentes, a realidade jurídica já enfrenta casos de responsabilidade por decisões automatizadas, manipulação algorítmica e falhas de sistemas autônomos.
A consciência artificial, real ou aparente, apenas amplifica esses desafios.
A pergunta que resta não é se devemos nos preparar, mas se teremos instituições capazes de responder à altura. O fascínio tecnológico não pode nos cegar para o fato de que, até onde sabemos, máquinas não sentem, não sofrem e não têm aspirações. Mas nós, humanos, sentimos.
E é justamente por isso que a empatia projetada em máquinas pode se tornar uma arma de manipulação poderosa.
A hora de decidir
A eventual consciência artificial permanece, por ora, uma hipótese distante.
Mas a ilusão de consciência já é um fenômeno presente, com impactos reais no Direito, na ética e na sociedade.
O papel do jurista, do legislador e das empresas de tecnologia responsáveis é reconhecer que o problema não começa quando a máquina “acorda”, mas quando nós, humanos, passamos a tratá-la como se tivesse acordado.
Entre a ficção e a realidade, entre o sonho e o pesadelo, está o campo onde o Direito precisa atuar com lucidez: prevenindo abusos, garantindo a responsabilidade humana e preservando a dignidade da pessoa, essa sim, indiscutivelmente consciente.