MIGALHAS DE PESO

  1. Home >
  2. De Peso >
  3. Terapia com IA: Solução ou sintoma de uma crise mais profunda?

Terapia com IA: Solução ou sintoma de uma crise mais profunda?

A escalada do uso de inteligência artificial em saúde mental e os desafios jurídicos que emergem da automatização do cuidado humano.

quarta-feira, 13 de agosto de 2025

Atualizado às 13:28

A crise global na saúde mental não é um dado novo, mas o modo como tentamos enfrentá-la tem mudado drasticamente. Uma das respostas mais controversas a essa crise vem sendo a adoção de sistemas baseados em inteligência artificial para oferecer apoio psicológico, especialmente por meio de chatbots.

Com promessas de disponibilidade imediata, custo reduzido e escalabilidade, essas soluções vêm ocupando o espaço deixado pelas falhas dos sistemas públicos de saúde. Mas até que ponto a tecnologia pode, ou deve, substituir o vínculo humano essencial ao cuidado em saúde mental?

Reportagens recentes, como a publicada pela BBC em 2025, revelam um crescimento exponencial de usuários que buscam acolhimento emocional via plataformas automatizadas. 

NHS - National Health Service do Reino Unido, por exemplo, passou a recomendar o uso de assistentes virtuais para contornar filas de espera que ultrapassam seis meses. Estudos do Dartmouth College indicam que, em alguns casos, há redução pontual de sintomas de ansiedade com o uso desses recursos.

No entanto, os próprios pesquisadores alertam para limitações epistemológicas e ausência de validação científica robusta quanto à eficácia terapêutica de modelos generativos de linguagem.

O caso recente da NEDA - National Eating Disorders Association, nos EUA, que substituiu atendentes humanos por um chatbot que acabou oferecendo conselhos prejudiciais a pacientes com distúrbios alimentares, acendeu alertas. A automação do cuidado, sem supervisão técnica, gerou consequências concretas à saúde das usuárias e abriu uma frente de discussões ético-jurídicas que não podem ser ignoradas.

Direito, regulação e os limites da IA no cuidado humano

Sob o olhar jurídico, o uso de IA em contextos terapêuticos tensiona diversas normativas.

A primeira e mais evidente diz respeito à proteção de dados sensíveis, como prevê a LGPD - Lei Geral de Proteção de Dados. Sistemas que processam informações de saúde devem seguir requisitos estritos de segurança, finalidade específica e consentimento informado, condições frequentemente negligenciadas por plataformas comerciais.

Além disso, há o limite do exercício profissional regulamentado. O atendimento psicológico no Brasil é regulado pelo CFP - Conselho Federal de Psicologia, que estabelece que diagnósticos, aconselhamentos e intervenções clínicas são atos privativos de profissionais habilitados.

Um sistema de IA, por mais sofisticado que seja, não detém registro profissional nem pode ser responsabilizado nos moldes da ética médica ou psicológica. Surge então a pergunta: quem responde pelos danos causados por conselhos automatizados?

No campo da responsabilidade civil, o debate ainda é incipiente. Plataformas que oferecem aconselhamento automatizado podem ser enquadradas como prestadoras de serviços digitais, mas a delimitação de culpa em caso de danos morais ou agravamento do estado emocional do usuário ainda carece de jurisprudência consolidada.

Em um futuro próximo, é possível que vejamos discussões judiciais complexas sobre negligência algorítmica e dolo por omissão informacional.

Psicologização da IA: Um risco camuflado de inovação

A grande armadilha está na psicologização da IA, ou seja, atribuir capacidades terapêuticas a sistemas que, no fundo, operam sobre lógica estatística e predições baseadas em linguagem. A empatia simulada, por mais convincente que seja, não substitui a escuta ativa de um profissional. Como alerta a pesquisadora Paula Boddington, "não é porque uma máquina sabe responder como um ser humano que ela compreende o sofrimento humano".

Para o Direito, esse ponto é crucial.

Estamos diante de um cenário onde há risco de violação da dignidade da pessoa humana, caso sujeitos vulneráveis sejam induzidos a confiar em entidades que não têm compromisso legal ou emocional com seu bem-estar. O uso irresponsável da IA em saúde mental pode reforçar desigualdades, ao reservar o cuidado humano à elite e relegar o atendimento automatizado à população empobrecida.

A contribuição do setor jurídico para uma regulação justa

Nesse contexto, operadores do Direito têm papel fundamental: advogar por uma regulação algorítmica eficaz, que proteja os usuários, preserve os princípios constitucionais e estabeleça critérios mínimos de segurança e responsabilidade.

Escritórios jurídicos devem se preparar para atuar em três frentes: compliance tecnológico e defesa de consumidores prejudicados por sistemas automatizados.

As plataformas voltadas à gestão humanizada e digital do Direito, entendem que a inovação tecnológica deve servir à promoção da cidadania, e não à sua precarização. 

Por isso, promovemos reflexões críticas como esta, colocando o Direito no centro da discussão sobre o futuro das relações entre homem e máquina.

Se por um lado não podemos barrar o avanço da IA nos serviços de saúde mental, por outro não podemos aceitar que essa automatização se dê à revelia da ética, da ciência e do Direito.

Eduardo Koetz

VIP Eduardo Koetz

Eduardo Koetz é advogado, sócio-fundador da Koetz Advocacia e CEO do software jurídico ADVBOX . Especialista em tecnologia e gestão, ele também se destaca como palestrante em eventos jurídicos.

AUTORES MIGALHAS

Busque pelo nome ou parte do nome do autor para encontrar publicações no Portal Migalhas.

Busca