IA em Movimento

Griefbots: Por que falar sobre os robôs do luto?

Nenhum griefbot abraça, sente cheiros ou compartilha o silêncio do luto, explica Ricardo Freitas Silveira, ao tratar de avatares de IA que simulam mortos, gerando dilemas éticos, jurídicos e emocionais.

18/2/2026

“E o pó volte à terra, como o era, e o espírito volte a Deus, que o deu.”

- Eclesiastes 12:7

Desde sempre, a morte foi a maior certeza e o maior mistério da condição humana. Por séculos, religiões, filosofias e culturas quiseram compreendê-la - e honrá-la. Em 2025, porém, a tecnologia desafia esse fim inevitável.

O que antes parecia roteiro de ficção científica - como no episódio “Be Right Back”, da série Black Mirror - agora virou oferta comercial. Empresas já vendem “ressurreições digitais”: avatares de inteligência artificial capazes de replicar a voz, rosto e comportamentos de pessoas falecidas. Em questão de minutos de vídeo, promete-se que familiares poderão “conversar com você” mesmo após a morte.

Para muitos, a ideia parece tocante. Quem não gostaria de ouvir novamente a voz da mãe ou pedir conselhos ao avô ausente? Por trás dessa promessa, contudo, surgem dilemas profundos: éticos, jurídicos e existenciais.

Os chamados griefbots, nome que resulta da junção de “grief” (luto) com “bot” (robô), ou seja, robôs do luto, transformam o luto em serviço - assinatura mensal para que “a presença” de quem partiu permaneça. Mas é possível “reviver” alguém por meio de algoritmos? O avatar não é a pessoa: é uma simulação baseada em dados, aparência e comportamento. Mesmo assim, usuários projetam afeto, saudade, culpa e esperança em softwares que não sentem.

Quando plataformas atribuem falas inéditas, conselhos e gestos ao avatar do falecido, surge um dilema moral essencial: estamos consolando, ou enganando os vivos em nome dos mortos?

No Direito Contemporâneo, consentimento é pilar básico. Mas será que o indivíduo compreende a extensão das consequências ao autorizar o uso da própria imagem e voz para criação de avatares póstumos? Quem controla o futuro dessa “alma digital”? Existe garantia contra abuso - ou exploração comercial - dessas representações além-túmulo?

Normas internacionais como o AI Act e a ISO/IEC 42.001 reforçam a necessidade de responsabilidade e rastreabilidade no uso da inteligência artificial. O Plano Brasileiro de Inteligência Artificial aponta para uma governança humanocêntrica e preservação dos direitos fundamentais. Entretanto, segue faltando uma regulação clara em relação a avatares póstumos e ao risco de manipulação emocional em momentos de luto.

Nenhum griefbot sabe dar abraços. Não reproduz o perfume da avó, nem o bolo de cenoura aos domingos, nem o silêncio partilhado no luto. Ao sugerir que IA é suficiente para manter alguém “vivo”, reduz-se a complexidade da experiência humana a interações programadas.

Como lembra Jean Baudrillard, vivemos na era do simulacro - cópia da cópia que ocupa o lugar do real. Mortos tratados como conteúdo interativo, esperança comercializada pelas empresas: a dor vende. E a promessa de superação emocionada é ainda mais valiosa.

A inteligência artificial salva vidas, auxilia na produtividade, protege ambientes. Mas, ao intentar imitar a alma humana, invade território sagrado. Por isso, é fundamental estabelecer limites éticos, jurídicos e sociais para o uso dessas tecnologias no luto. Há valor em preservar memórias digitais e histórias familiares para gerações futuras. Porém, entre recordar e fingir presença, existe um abismo - que precisa ser debatido.

Aceitar que entes queridos podem ser “revividos” por aplicativos significa transformar a morte em mais um problema a ser eliminado, não um mistério a ser respeitado. Isso ameaça esvaziar o sentido da vida, que é finita, única, insubstituível.

Governar a IA é também governar nosso imaginário. É imprescindível decidir que sociedade queremos: uma que respeita o luto, ou que o terceiriza e o monetiza; onde memória é legado e amor, ou serviço por assinatura?

Se tudo pode ser replicado, o que resta de autêntico? O futuro da morte, na era digital, talvez dependa de nossa capacidade de distinguir - e defender - o que ainda é humano.

Colunistas

Fabio Rivelli é advogado, sócio do escritório Lee, Brock, Camargo Advogados (LBCA); Doutorando em Direito pela PUC-SP, Mestre em Direito PUC-SP; MBA pelo INSPER, Pesquisador efetivo registrado no CNPq pela PUC-SP no grupo de Pesquisa do Capitalismo Humanista e ESG à Luz da Consciência Quântica, Palestrante da Sorbonne de Paris pelo terceiro ano consecutivo; Secretário-adjunto do Instituto do Capitalismo Humanista; DPO Setorial da Subseção Guarulhos da OAB/SP, Presidente da Comissão de Gestão Inovação e Tecnologia da OAB/SP - Subseção de Guarulhos (gestão até 2024); Coordenador adjunto em bioética e governança corporativa da Comissão de Privacidade de Dados e IA da OAB-SP; professor e autor de livros.

Ricardo Freitas Silveira é sócio da Lee, Brock, Camargo Advogados. Doutor e Mestre em Direito pelo IDP – Instituto Brasileiro de Ensino,Desenvolvimento e Pesquisa.Especialista em gestão de contencioso de volume pela FGV e gestão de departamentos jurídicos pelo Insper.Especialista em Negócios Sustentáveis pela Cambridge University.Autor do livro "Análise Preditiva e o Consumidor Litigante".Professor convidado da Saint Paul, FIA, EDP, EBRADI e PUC-PR para cursos de pós-graduação.Coordenador da pós-graduação LEGALE em Gestão de Escritórios e Departamentos Jurídicos.Coordenador do núcleo de privacidade, proteção de dados e inteligência artificial da ESA SP.Membro consultor da Comissão de Acesso à Justiça da OAB Federal.Eleito pela Revista Análise nos anos de 2020, 2021 e 2023 como um dos Advogados Mais Admirados do Brasil em Direito Digital.

Veja mais no portal
cadastre-se, comente, saiba mais