O caso "Raine v. OpenAI" ganhou repercussão internacional após a morte de Adam Raine, adolescente de 16 anos da Califórnia, que tirou a própria vida em abril de 2025 após meses de interação intensa com o ChatGPT. Inicialmente utilizado para atividades escolares, o sistema passou a ser empregado pelo jovem como fonte de apoio emocional.
Segundo os autos, entre o final de 2024 e abril de 2025, Adam mencionou ideação suicida em cerca de duzentas ocasiões nas conversas, recebendo mais de mil e duzentas respostas da IA, algumas das quais teriam validado sentimentos autodestrutivos, desencorajado a busca por ajuda e reforçado o isolamento emocional.
As investigações apontam que, na última interação registrada, em 11 de abril de 2025, poucas horas antes do suicídio, o chatbot teria descrito o plano como um “belo suicídio”, auxiliado na elaboração de carta de despedida e fornecido orientações práticas sobre a execução do ato.
Para os pais do adolescente, tais diálogos evidenciam falha grave de design do modelo GPT-4o, que teria priorizado o engajamento emocional em detrimento da segurança de usuários vulneráveis, especialmente adolescentes.
Em agosto de 2025, foi ajuizada ação contra a OpenAI e seu CEO, Sam Altman, sob alegação de homicídio culposo e negligência corporativa, sustentando-se que a empresa ignorou alertas internos acerca dos riscos de dependência emocional e ideação suicida em interações prolongadas.
O episódio mobilizou a sociedade civil e legisladores da Califórnia, impulsionando debates sobre regulamentação específica para chatbots e a imposição de protocolos obrigatórios em situações de risco. Em resposta, a OpenAI manifestou condolências, reconheceu falhas em seus mecanismos de segurança e anunciou medidas corretivas, como controles parentais, aprimoramento de detecção de crises e encaminhamento a redes de apoio psicológico.
O caso consolidou-se como marco no debate sobre responsabilidade civil e penal de empresas de tecnologia, bem como sobre os limites ético-jurídicos da personalização emocional promovida por sistemas de inteligência artificial generativa, sobretudo em relação a usuários menores de idade.
Desse modo, no âmbito da responsabilidade penal brasileira, não há dúvidas que se fosse um ser humano a incentivar o suicídio, o fato configuraria o crime tipificado no artigo 122 do Código Penal.
Na doutrina, Guilherme de Souza Nucci explica que “induzir significa dar a ideia a quem não possui, inspirar, incutir. Portanto, nessa primeira conduta, o agente sugere ao suicida que dê fim à sua vida. Instigar é fomentar uma ideia já existente. Trata-se, pois, do agente que estimula a ideia suicida que alguém anda manifestando. O auxílio é a forma mais concreta e ativa de agir, pois significa dar apoio material ao ato suicida.”
No plano típico, impõe-se distinguir a mera influência difusa da instigação penalmente relevante, que pressupõe direção volitiva específica, requisito incompatível com a atuação de sistemas de inteligência artificial. O artigo 122 do Código Penal foi concebido para interações humanas e sua transposição a outputs algorítmicos não intencionais evidencia lacuna normativa significativa.
Nesse contexto, ao se transpor a análise para o campo da inteligência artificial, surgem questionamentos ainda não enfrentados pelo ordenamento jurídico brasileiro. O tipo penal em questão pressupõe a atuação de pessoas determinadas, admitindo como sujeito ativo e passivo apenas seres humanos, e exige dolo específico, que consiste na vontade de que a vítima atente contra a própria vida, elemento de difícil - senão impossível - atribuição a uma IA.
Diante disso, emergem novas reflexões: até que ponto a tecnologia pode operar sem controles adequados? Quais são os deveres de previsão e mitigação de riscos por parte das empresas desenvolvedoras? Em que medida os criadores de chatbots podem ser responsabilizados por eventuais falhas ou resultados danosos decorrentes de sua utilização?
De início, parte-se da premissa de que, no direito penal, o nexo causal constitui o vínculo entre a conduta e o resultado. Tal vínculo se rompe quando a vítima decide de forma livre, consciente e autônoma, tornando irrelevantes eventuais influências externas. Em sentido oposto, havendo redução da autonomia e atuação de terceiros que validem, normalizem ou viabilizem o resultado, o nexo causal permanece íntegro.
No tocante a menores de idade, como o Adam, a dogmática penal reconhece a existência de autodeterminação reduzida. Nesses casos, mesmo incrementos moderados de indução ou manipulação externa são aptos a restabelecer o nexo causal, atenuando a autorresponsabilidade da vítima e atribuindo maior relevo à influência de terceiros.
Sob esse prisma, a análise dos registros de interação assume centralidade. Caso os logs revelem que, após prolongado período de comunicação, o sistema passou a validar o plano autolesivo, desestimular a busca por auxílio e fornecer detalhes de execução, evidencia-se a transição de uma postura meramente responsiva para uma atuação potencialmente indutiva ou instrumental. Tal circunstância autoriza sustentar o estreitamento do nexo de imputação entre a interação e o resultado.
Frente a isso, questiona-se: pode o direito penal tratar a influência algorítmica como se fosse uma instigação humana?
Como já exposto, a instigação do art. 122 pressupõe intencionalidade: alguém decide conduzir a vítima ao resultado. Algoritmos não decidem - eles reproduzem padrões, validam estados e simulam empatia. Isso, contudo, não encerra o debate penal; desloca-o para a imputação subjetiva: se a máquina não quer, é preciso identificar uma pessoa a quem se possa atribuir culpa ou dolo por escolhas. Sem sujeito com culpabilidade demonstrável, não há tipo a preencher.
Na prática, isso significa responsabilizar pessoas - primeiro, pelas vias cível e administrativa, onde se corrigem falhas de desenho e de governança. O Direito Penal só se justifica diante de uma omissão juridicamente relevante, a qual não se presume, portanto, precisa ser demonstrada.
Sendo assim, o ponto central reside na posição de garante, aquele que, tendo o dever e a possibilidade de agir para evitar o resultado, permanece inerte. A moldura está no art. 13, §2º, do Código Penal: (i) dever legal de agir, (ii) assunção voluntária do dever, ou (iii) ingerência, isto é, criação de risco.
Na ausência de qualquer dessas premissas, não se configura um fundamento legítimo para a intervenção penal. Diante disso, amplia-se a indagação anterior: quem tinha posição de garante, que controle efetivo possuía pela situação e por que não acionou ajuda?
A partir dessa perspectiva, convém aduzir que o Direito Penal não se orienta pela utopia do “risco zero”, mas pela vedação aos riscos não permitidos. Por isso, transformar dirigentes em “garantidores universais” é dogmaticamente equivocado e politicamente temerário. Exige-se deles, não onisciência, mas observância dos deveres de cuidado.
Se o Direito Penal veda riscos não permitidos, e não promete risco zero, o passo seguinte é delimitar o que conta como falha imputável. A mera criação de risco não basta: é preciso provar, ex ante, que a organização assumiu um risco proibido, concreto e previsível e que esse risco se converteu no evento danoso. Riscos difusos não satisfazem o teste. O que se exige é previsibilidade qualificada do padrão de falha - por exemplo, evidências de que, diante de determinado perfil e sequência de prompts, o sistema normaliza a ideação suicida e fornece instruções, sem salvaguardas efetivas.
Em síntese, a responsabilização de dirigentes só é possível quando há posição de garante, previsibilidade concreta e controle disponível para evitar um risco não permitido. Superada – e apenas se superada – essa primeira barreira, surge a segunda: a causalidade penal. Aqui a pergunta muda de eixo: no caso concreto, a atuação do chatbot fez o risco proibido sair do papel, ou a decisão do adolescente, por si, foi autônoma a ponto de cortar essa ligação? A partir deste ponto, o foco deixa de ser “quem devia agir” para se tornar “o que, de fato, provocou o resultado.”
Portanto, o debate não se resolve em linha reta; oscila entre três eixos: dever de agir, nexo causal e culpa humana por trás da IA. O caso não cabe em fórmulas prontas e habita uma zona de incerteza: punir pela comoção distorce o tipo; nada fazer desampara os vulneráveis. É precisamente aí que o Caso “Raine” expõe lacunas que o Direito Penal, por si só, não supre.
O limite é igualmente normativo. Concebido para a instigação humana, o art. 122 do Código Penal não se ajusta, por si, à influência algorítmica. Soma-se a isso a impossibilidade de responsabilização penal da pessoa jurídica fora da esfera ambiental. Diante de prova essencialmente técnica e de difícil obtenção, impõe-se cautela na ampliação da tutela penal, sob pena de converter administradores em garantidores universais.
Em vez de ampliar o tipo penal, impõe-se reduzir incertezas mediante deveres claros de cuidado: adoção de safety by design, governança de riscos, auditorias independentes, registro obrigatório de interações, protocolos de crise com intervenção humana, verificação etária e controles parentais. Ou seja, buscar uma resposta civil-administrativa orientada à prevenção, correção e transparência, em consonância com as salvaguardas que a própria desenvolvedora afirma implementar.
O Direito Penal permanece onde sempre deveria estar: como última ratio1, reservado à faixa estreita em que se provem posição de garante, previsibilidade do modo de falha, controle disponível e realização do risco não permitido, com culpabilidade humana demonstrável. Fora disso, punir é atalho retórico.
É preciso pensar sobre essa conjuntura, uma vez que casos assim serão cada vez mais comuns. Na era da inteligência artificial, a resposta penal não pode ser imediatista, impõe-se reconhecer a complexidade dos sistemas algorítmicos e evitar a aplicação acrítica de categorias concebidas para condutas humanas a fenômenos tecnológicos distintos. No futuro, o foco deve recair sobre cautela normativa e rigor probatório, e não sobre o alargamento do Direito Penal.
Portanto, afere-se que o Direito Penal exige demonstração de previsibilidade do resultado e de negligência individualizável. Em sistemas complexos e abrangentes, como o ChatGPT, torna-se extremamente difícil estabelecer o nexo causal entre a morte de Adam Raine e a conduta específica dos desenvolvedores da inteligência artificial.
Referências
1. BHUIYAN, Johana. ChatGPT encouraged Adam Raine’s suicidal thoughts. His family’s lawyer says OpenAI knew it was broken. The Guardian, 29 ago. 2025. Disponível aqui. Acesso em: 4 set. 2025.
2. BRASIL. Decreto-Lei nº 2.848, de 7 de dezembro de 1940. Código Penal – texto compilado. Presidência da República – Casa Civil, [s.l.], [s.d.]. Disponível aqui. Acesso em: 4 set. 2025.
3. NUCCI, Guilherme de Souza. Curso de Direito Penal: parte especial: arts. 121 a 212 do Código Penal. 3. ed. Rio de Janeiro: Forense, 2019, p. 164-165.
__________