Griefbots: Por que falar sobre os robôs do luto?
quarta-feira, 18 de fevereiro de 2026
Atualizado em 13 de fevereiro de 2026 09:51
“E o pó volte à terra, como o era, e o espírito volte a Deus, que o deu.”
- Eclesiastes 12:7
Desde sempre, a morte foi a maior certeza e o maior mistério da condição humana. Por séculos, religiões, filosofias e culturas quiseram compreendê-la - e honrá-la. Em 2025, porém, a tecnologia desafia esse fim inevitável.
O que antes parecia roteiro de ficção científica - como no episódio “Be Right Back”, da série Black Mirror - agora virou oferta comercial. Empresas já vendem “ressurreições digitais”: avatares de inteligência artificial capazes de replicar a voz, rosto e comportamentos de pessoas falecidas. Em questão de minutos de vídeo, promete-se que familiares poderão “conversar com você” mesmo após a morte.
Para muitos, a ideia parece tocante. Quem não gostaria de ouvir novamente a voz da mãe ou pedir conselhos ao avô ausente? Por trás dessa promessa, contudo, surgem dilemas profundos: éticos, jurídicos e existenciais.
Os chamados griefbots, nome que resulta da junção de “grief” (luto) com “bot” (robô), ou seja, robôs do luto, transformam o luto em serviço - assinatura mensal para que “a presença” de quem partiu permaneça. Mas é possível “reviver” alguém por meio de algoritmos? O avatar não é a pessoa: é uma simulação baseada em dados, aparência e comportamento. Mesmo assim, usuários projetam afeto, saudade, culpa e esperança em softwares que não sentem.
Quando plataformas atribuem falas inéditas, conselhos e gestos ao avatar do falecido, surge um dilema moral essencial: estamos consolando, ou enganando os vivos em nome dos mortos?
No Direito Contemporâneo, consentimento é pilar básico. Mas será que o indivíduo compreende a extensão das consequências ao autorizar o uso da própria imagem e voz para criação de avatares póstumos? Quem controla o futuro dessa “alma digital”? Existe garantia contra abuso - ou exploração comercial - dessas representações além-túmulo?
Normas internacionais como o AI Act e a ISO/IEC 42.001 reforçam a necessidade de responsabilidade e rastreabilidade no uso da inteligência artificial. O Plano Brasileiro de Inteligência Artificial aponta para uma governança humanocêntrica e preservação dos direitos fundamentais. Entretanto, segue faltando uma regulação clara em relação a avatares póstumos e ao risco de manipulação emocional em momentos de luto.
Nenhum griefbot sabe dar abraços. Não reproduz o perfume da avó, nem o bolo de cenoura aos domingos, nem o silêncio partilhado no luto. Ao sugerir que IA é suficiente para manter alguém “vivo”, reduz-se a complexidade da experiência humana a interações programadas.
Como lembra Jean Baudrillard, vivemos na era do simulacro - cópia da cópia que ocupa o lugar do real. Mortos tratados como conteúdo interativo, esperança comercializada pelas empresas: a dor vende. E a promessa de superação emocionada é ainda mais valiosa.
A inteligência artificial salva vidas, auxilia na produtividade, protege ambientes. Mas, ao intentar imitar a alma humana, invade território sagrado. Por isso, é fundamental estabelecer limites éticos, jurídicos e sociais para o uso dessas tecnologias no luto. Há valor em preservar memórias digitais e histórias familiares para gerações futuras. Porém, entre recordar e fingir presença, existe um abismo - que precisa ser debatido.
Aceitar que entes queridos podem ser “revividos” por aplicativos significa transformar a morte em mais um problema a ser eliminado, não um mistério a ser respeitado. Isso ameaça esvaziar o sentido da vida, que é finita, única, insubstituível.
Governar a IA é também governar nosso imaginário. É imprescindível decidir que sociedade queremos: uma que respeita o luto, ou que o terceiriza e o monetiza; onde memória é legado e amor, ou serviço por assinatura?
Se tudo pode ser replicado, o que resta de autêntico? O futuro da morte, na era digital, talvez dependa de nossa capacidade de distinguir - e defender - o que ainda é humano.

