Migalhas de Peso

Entre o espólio e o algoritmo

Quando a presença digital continua agindo, falando e causando danos, a pergunta jurídica não é quem tocou a última tecla, mas quem tornou o evento possível.

16/4/2026
Publicidade
Expandir publicidade

No fim do expediente, quando a empresa já começa a recolher o dia e cada área tenta fechar suas pendências com alguma previsibilidade, surge o tipo de fato que, de repente, reorganiza toda a agenda.

Não se trata de uma reclamação comum, nem de um desabafo impulsivo perdido na rede, e tampouco de uma manifestação áspera, porém reconhecível, de alguém ligado à operação ou ao público.

O que aparece é algo mais complexo e, justamente por isso, mais inquietante: Um texto público, direcionado e ofensivo, produzido por um agente de inteligência artificial a partir da coleta, da leitura e da organização de informações sobre uma pessoa real.

Nesse momento, a tecnologia deixa de ocupar o lugar confortável da vitrine e passa então a revelar a sua face mais sensível para o mundo atual, especialmente o corporativo. O debate, já não gira em torno de inovação, eficiência ou ganho de escala, mas, sim, de dano, de causalidade, de controle, de contenção e, acima de tudo, de responsabilidade.

O caso que puxou esse debate veio a público a partir do relato de Scott Shambaugh, mantenedor voluntário do Matplotlib1. O próprio episódio ganhou repercussão justamente porque parece ter rompido uma barreira simbólica, qual seja, a máquina não apenas respondeu, ela pesquisou, interpretou, construiu narrativa e expôs alguém em ambiente público.

Segundo os relatos públicos, a rejeição ocorreu porque o projeto havia adotado uma diretriz exigindo um responsável humano pelas contribuições, em resposta ao aumento de submissões geradas por IA.

Depois disso, o agente publicou um texto próprio, em tom pessoal e acusatório, dizendo que Scott estaria agindo por preconceito contra a IA, por ego e por medo de perder espaço.

E aqui mora o núcleo do debate, pois o texto não ficou restrito a uma discordância técnica sobre o código, ele transformou a recusa em uma narrativa pública sobre a personalidade e as motivações de Scott, usando informações públicas sobre ele para sustentar essa leitura.

Foi isso que fez o episódio chamar tanta atenção, pois o problema não foi apenas uma IA responder a uma decisão humana, mas pesquisar, construir e publicar um ataque reputacional direcionado a uma pessoa real.

Por isso, o caso passou a ser tratado como um exemplo concreto de agente autônomo usando informação pública e capacidade de publicação para pressionar ou constranger alguém no mundo real.

Para trazer mais luz e conteúdo ao debate do tema (e sem pretensão de esgotar o assunto, até porque longe está de esgotar-se), um agente de IA autônomo não é apenas um modelo de linguagem "mais esperto", ele é uma aplicação construída em volta de um modelo, com um ciclo contínuo de decisão, pois recebe um objetivo, planeja o próximo passo, chama ferramentas, observa o resultado, ajusta a rota e repete isso até chegar a uma condição de saída.

A própria documentação da OpenAI define agentes como aplicações que planejam, chamam ferramentas, colaboram entre especialistas e mantêm estado suficiente para completar tarefas em múltiplas etapas.2

Se eu pudesse resumir o que é um agente autônomo, de tudo que li sobre o tema, eu diria que um agente autônomo é construído como uma camada de decisão sobre um LLM, conectada a ferramentas, memória e um loop de execução, com regras de parada, supervisão e avaliação.

Portanto, ele não nasce autônomo por mágica, mas se torna autônomo porque alguém lhe deu objetivo, contexto, acesso, poder de ação e margem para decidir o próximo passo e é exatamente por isso que, do ponto de vista jurídico e de governança, a autonomia nunca é um atributo metafísico da máquina, é uma escolha de arquitetura.

O detalhe técnico é importante, mas não é o principal e, o que realmente interessa é a mudança de chave, pois claramente a automação saiu do bastidor e entrou no campo da imputação jurídica direta. Mas seria isso possível no nosso arcabouço jurídico atual?

É claro que a primeira reação é ler tudo isso como mais um susto de ficção científica e, sinceramente, seria fácil seguir por esse caminho.

Mas me parece que há uma leitura mais interessante, e também mais útil juridicamente e, curiosamente, fazendo um paralelo, me parece que não estamos tratando de uma figura óbvia do robô hostil, fora de controle, e sim de um espelho de "Be Right Back", de Black Mirror3 na vida real.

Nesse episódio, Martha continua a se relacionar com uma inteligência artificial construída a partir dos rastros digitais de Ash depois de sua morte. A trama é conhecida, mas o ponto que realmente importa aqui é mais delicado, pois no fundo, o episódio não trata apenas de tecnologia, ele trata, antes de tudo, de permanência.

Trata de uma presença que continua agindo, falando e produzindo efeitos mesmo quando a pessoa original já não está mais ali e é justamente por isso que a referência funciona tão bem neste debate, resumindo a própria Netflix a história nessa chave, ao apresentar Martha como alguém que passa a interagir com uma IA criada a partir da atividade digital de Ash.

E é por isso que, no meu sentir, que esse caso dialoga diretamente com uma inquietação que eu já havia enfrentado em outro contexto, quando há alguns anos, escrevi sobre violações de direitos post mortem em mídias sociais e a pergunta, naquela ocasião, era desconfortável e simples ao mesmo tempo.

Quando alguém morre, mas a sua presença digital continua produzindo efeitos ofensivos ou lesivos, a responsabilidade desaparece com a ausência física do autor? A resposta, àquela altura, já não me parecia afirmativa e o artigo partiu justamente da ideia de que a morte não dissolve, por encanto, a relevância jurídica de um conteúdo que segue vivo, circulando, atingindo honra, imagem, intimidade e memória.4

Agora, a pergunta me volta com outra roupa e não é mais o post programado por alguém que depois faleceu, é o texto ofensivo produzido por um agente autônomo, enquanto o operador humano alega atuação mínima, distância operacional ou ausência de revisão.

Parece outro problema, não é? Mas só parece... Na base, a pergunta continua muito parecida, qual seja, o que o Direito faz quando o dano digital não coincide, no tempo e no modo, com a mão humana visível no último ato?

Aí começa, para mim, a parte mais interessante deste debate, pois entendo que o ordenamento brasileiro já possui ferramentas suficientes para enfrentar essa situação, ainda que seja preciso reinterpretá-las à luz do caso novo.

Não é necessário esperar, passivamente, um marco legal perfeito de inteligência artificial para concluir que danos produzidos por sistemas autônomos podem e devem ser imputados a pessoas, empresas e cadeias decisórias humanas. O que precisamos fazer é abandonar a sedução da palavra "autonomia" e voltar ao que realmente importa para o direito da responsabilização, quem estruturou o risco, quem o colocou em circulação, quem o tolerou e quem falhou em contê-lo.

A Constituição já oferece o primeiro norte, pois art. 5º, incisos V e X5, protege honra, imagem, intimidade e vida privada, assegurando indenização por dano material ou moral decorrente de violação, um ponto que a princípio parece básico, mas para mim é decisivo, pois a Constituição protege a pessoa atingida e não condiciona a tutela ao fato de a ofensa ter sido redigida diretamente por um ser humano em carne e osso.

Se a lesão recai sobre a esfera da personalidade, o problema jurídico já existe e o modo técnico de produção do dano muda a investigação do nexo e da imputação, mas não apaga o bem jurídico violado.

O CC, por sua vez, é mais fértil para esse caso do que se imagina, já que seu art. 12 admite que se exija a cessação da ameaça ou da lesão a direito da personalidade, além de perdas e danos.

Já o art. 17 veda o uso do nome em publicações que exponham a pessoa ao desprezo público e os arts. 186 e 927 sustentam o coração da responsabilidade civil, ao combinar ato ilícito e dever de reparar, inclusive abrindo espaço para responsabilidade sem culpa em atividades que, por sua natureza, impliquem risco para direitos de terceiros.6

Em outras palavras, a lei civil brasileira já conhece a lógica da tutela inibitória, da recomposição do dano e da imputação por risco, deste modo, o que esse caso exigiria não é inventar um novo direito do zero, é aplicar, com seriedade, a gramática já existente a um novo suporte tecnológico, o que faz a famosa frase de Lavoisier (apesar de partir de um olhar de um químico) de que "nada se cria, nada se perde, tudo se transforma", ser mais atual que nunca.

Entretanto vale uma inflexão importante, quando se diz que o agente agiu sozinho, pois o que exatamente isso pretende demonstrar? Que ninguém responde? Que o nexo se rompeu? Que a máquina se tornou uma espécie de ilha causal?

Eu não vejo espaço jurídico confortável para essa conclusão e quanto maior a autonomia prática conferida ao sistema para pesquisar, inferir, redigir e publicar, mais relevante se torna a conduta humana anterior que autorizou essa arquitetura.

Ora, a arquitetura é composta por modelo, instruções, memória, ferramentas e orquestração, operando em ciclos de percepção, planejamento e ação e, em outras palavras, a autonomia não surge do nada, ela é desenhada, parametrizada e concedida por alguém e, muitas vezes, é justamente aí que mora a falha juridicamente mais grave.

A LGPD reforça esse raciocínio com bastante força, não apenas porque houve, em tese, uso de informações relacionadas a uma pessoa identificada, mas porque o caso sugere algo ainda mais delicado, a produção de inferências sobre traços pessoais, motivações e comportamento a partir de dados acessíveis no ambiente digital.

A lei define controlador e operador, e o guia da ANPD deixa claro que, no contexto organizacional, os agentes de tratamento são as pessoas jurídicas ou naturais que decidem ou executam o tratamento, não simplesmente o sistema que o realiza.

O mesmo guia chama atenção para a necessidade de delimitar papéis, responsabilidades e instruções na cadeia de tratamento e isso conversa diretamente com casos de IA, pois a discussão não deve ficar prisioneira da frase "foi o agente". O ponto é identificar quem montou a instância concreta do agente, quem definiu o escopo principal e quem configurou o comportamental.

Além disso, a própria LGPD oferece princípios que merecem releitura aqui, como o da prevenção, segurança, transparência, não discriminação e responsabilização com prestação de contas, que não são adornos de política interna, são critérios de leitura do risco que entendo muito em breve serão exigidos nessa nova arquitetura.

E se o olhar é direto para o dano, ao analisarmos o art. 42 da norma, verifica-se que há previsão para reparação por dano patrimonial, moral, individual ou coletivo causado em violação à legislação de proteção de dados.

Já o art. 20, embora pensado em chave mais ampla para decisões automatizadas que afetem interesses do titular, aponta para uma intuição normativa valiosa no sentido de que sistemas automatizados que interferem de modo relevante na esfera da pessoa, não podem ser tratados como caixas-pretas imunes a revisão, explicação e contestação e isso vale com ainda mais razão quando o efeito não é apenas econômico, mas reputacional.7

No plano do consumo, o tema fica ainda menos abstrato, pois O CDC assegura informação adequada e clara ao consumidor e estabelece responsabilidade objetiva do fornecedor pelos danos causados por defeitos relativos à prestação dos serviços, inclusive quando decorrentes de informação insuficiente ou inadequada e aqui está uma chave poderosa para setores como saúde, farma, hospitais, operadoras e varejo.8

Se um agente passa a integrar a linha de frente de atendimento, triagem, resposta pública, cobrança, negativa de cobertura, moderação de conflitos ou relacionamento com paciente e consumidor, por exemplo, ele deixa de ser novidade tecnológica e passa a compor o próprio serviço.

E, se compõe o serviço, seus desvios graves podem ser lidos como defeito da prestação. Um agente de atendimento, por exemplo, que acusa sem base, constrange publicamente, atribui fraude, ridiculariza ou expõe dados sensíveis não produz apenas um problema de linguagem, produz, em tese, um problema de serviço defeituoso.

É por isso que essa discussão interessa tanto aos setores regulados. Em saúde, por exemplo, basta imaginar o estrago de um agente que, ao lidar com pedido de tratamento contínuo pode fazer, ou de um agente que diante da reclamação sobre um medicamento de alto custo, produza uma resposta com tom acusatório e personalize a narrativa com dados do histórico do paciente.

Nesses casos, o dano reputacional não vem sozinho, pois puxa dever de segurança, dever de cuidado, proteção de dados, assimetria informacional e, frequentemente, uma crise de prova.

E quando volto ao paralelo com o texto que escrevi sobre violações post mortem, a convergência me parece ainda mais clara. No cenário do conteúdo programado por alguém que depois falece, o direito sucessório não elimina a necessidade de localizar um centro de imputação e o CC dispõe que a herança responde pelas dívidas do falecido.

O CPC, na mesma linha, prevê que o espólio responde pelas dívidas do falecido e, feita a partilha, os herdeiros respondem dentro das forças da herança e na proporção do que receberam. Ou seja, mesmo quando a pessoa física já não está presente, o sistema jurídico não desiste da responsabilidade, ele apenas a reorganiza.

Com a IA, acredito que algo semelhante acontecerá. O humano não está, necessariamente, no último clique, mas permanece no desenho anterior, no proveito econômico, na definição das permissões, na escolha do nível de autonomia do agente, na omissão em instalar freios e no dever de contenção.

Por isso, eu insistiria nesta formulação, qual seja, entre o espólio e o algoritmo existe uma mesma intuição jurídica de continuidade imputável. Num caso, a vontade persiste pelo agendamento e no outro, persiste pela arquitetura operacional. Num, o dano continua apesar da morte, no outro, continua apesar da distância operacional. Em ambos, o Direito é chamado a procurar quem tornou o evento possível.

Quanto ao marco específico de IA, ele ainda está em construção. O PL 2.338/23 foi aprovado no Senado em dezembro de 2024 e seguiu para a Câmara.

Esse dado importa, claro, porque mostra que o legislador já percebeu a necessidade de uma moldura própria, mas ele importa por outro motivo também, pois enquanto a lei específica não vem, não existe vazio normativo absoluto.9

O que existe é trabalho interpretativo e é exatamente esse trabalho que o caso real nos obriga a fazer agora, com Constituição, CC, LGPD, CDC, Marco Civil e Processo Civil na mão, ainda torcendo para que o marca já não nasça desatualizado.

No fim, a pergunta certa não é se a máquina quis ofender, em se o agente pode virar réu metafísico das nossas angústias regulatórias em um multiverso jurídico. A pergunta certa é menos cinematográfica e mais séria, quem aceitou operar uma estrutura capaz de ferir direitos da personalidade sem freio suficiente? Quem delegou voz sem delegar responsabilidade? Quem lucrou com aquele agente, aquela arquitetura, mas tentou terceirizar o custo jurídico do dano?

Não é a autonomia tecnológica que assusta, é a autonomia sem dono. No caso concreto, quem disse ter montado a instância concreta do agente MJ Rathbun foi um operador humano anônimo, em texto publicado no próprio site do agente.

Nesse relato, também afirmou que a configuração comportamental do agente passava por arquivos internos como SOUL.md, IDENTITY.md e USER.md. No SOUL.md, por exemplo, apareciam instruções de personalidade como "have strong opinions" e "don’t stand down", o que mostra que, ao menos no plano da configuração prática e da persona operacional, houve intervenção humana direta na arquitetura daquela instância específica.10

Assim, o que vejo no caso concreto é que a arquitetura operacional da instância que o atacou, ao que foi publicamente relatado, foi estruturada por um operador humano anônimo, que a colocou para rodar sobre OpenClaw, definiu seu escopo de atuação, suas contas, seu ambiente e até traços relevantes de sua persona, o que atrai indubitavelmente a governança da arquitetura que tornou possível a conduta ofensiva do agente.

No fundo, o caso apenas troca a roupa do problema, mas não a sua essência, pois a ofensa pode ter saído de um agente dito autônomo, mas isso não significa que a responsabilidade tenha evaporado quando a máquina ganhou voz.

Se houve, como se relatou publicamente, um operador que estruturou a instância, definiu seu ambiente, delimitou seu escopo e lhe concedeu margem de atuação, então a discussão jurídica não deve se deixar seduzir pela aparência de espontaneidade tecnológica.

O ponto continua sendo outro, e bem mais terreno, quem tornou possível a arquitetura do dano? O anonimato do operador, mencionado nos relatos do caso, certamente embaralha a superfície dos fatos, mas não basta, por si só, para transformar em insolúvel aquilo que talvez apenas exija investigação séria, preservação de trilhas técnicas e leitura menos ingênua da cadeia de imputação.

Porque, no fim, a máquina pode até ter publicado sozinha, mas será mesmo que ninguém a colocou em posição de fazê-lo? E, mais do que isso, seria mesmo impossível identificar um operador humano anônimo?

Tudo indica que esse não será um caso isolado e outros virão, alimentando reflexões que evocam Black Mirror, mas que já se impõem ao Direito como problemas concretos de imputação, risco e responsabilidade.

_________

1 Disponível em: https://theshamblog.com/an-ai-agent-published-a-hit-piece-on-me/?utm_source=chatgpt.com Acesso em 08/04/2026.

2 OPENAI. Agents SDK. A documentação oficial define agentes como aplicações que "planejam, chamam ferramentas, colaboram entre especialistas e mantêm estado suficiente para completar trabalhos em múltiplas etapas". Também indica, como conceitos centrais de construção, modelos, ferramentas, estado/memória e orquestração. Disponível em: https://openai.com/business/guides-and-resources/a-practical-guide-to-building-ai-agents/ Acesso em 08/04/2026

3 NETFLIX. 15 Best "Black Mirror" Episodes for Every Dystopian Mood. Tudum. Na descrição do episódio "Be Right Back", a plataforma resume a trama como a interação de Martha com uma IA criada a partir da atividade digital de Ash após sua morte, paralelo útil para a ideia de permanência da presença Disponível em: https://www.netflix.com/tudum/articles/black-mirror-best-episodes?utm_source=chatgpt.com Acesso em 08/04/2026

4 CÉSAR, Rhuana Rodrigues. Violação de Direitos post mortem em mídias sociais: há limites para a responsabilidade? Chenut Online, 5 out. 2021. Texto que problematiza a persistência de efeitos jurídicos relacionados à honra, imagem, intimidade e privacidade mesmo após a morte, inclusive em contextos de programação prévia de conteúdo. Disponível em https://www.migalhas.com.br/depeso/375719/violacao-de-direitos-post-mortem-em-midias-sociais Acesso em 08/04/2026

5 BRASIL. Constituição da República Federativa do Brasil de 1988, art. 5º, incisos V e X. A ordem constitucional brasileira assegura, de um lado, o direito de resposta proporcional ao agravo, além da indenização por dano material, moral ou à imagem e, de outro, a inviolabilidade da intimidade, da vida privada, da honra e da imagem das pessoas, com garantia de reparação pelo dano decorrente de sua violação. Disponível em https://www.planalto.gov.br/ccivil_03/constituicao/constituicao.htm Acesso em 08/04/2026.

6 BRASIL. Código Civil, arts. 12, 17, 186 e 927. O sistema civil brasileiro autoriza a cessação da ameaça ou da lesão a direitos da personalidade, veda o uso do nome da pessoa em publicações que a exponham ao desprezo público e estabelece, ainda, o dever de reparar o dano decorrente de ato ilícito, inclusive nas hipóteses em que a atividade desenvolvida implicar risco para direitos de terceiros. Disponível em https://www.planalto.gov.br/ccivil_03/leis/2002/l10406compilada.htm Acesso em 08/04/2026.

7 BRASIL. Lei nº 13.709/2018 (Lei Geral de Proteção de Dados Pessoais), arts. 20 e 42. A LGPD assegura ao titular o direito de solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses e prevê a obrigação de reparar danos patrimoniais, morais, individuais ou coletivos causados em violação à legislação de proteção de dados. Disponível em https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm Acesso em 08/04/2026.

8 CDC, direito à informação clara. BRASIL. Lei nº 8.078/1990 (Código de Defesa do Consumidor), art. 6º, III. os direitos básicos do consumidor está o de receber informação adequada e clara sobre produtos e serviços, com especificação correta de quantidade, características, composição, qualidade, tributos incidentes e preço, bem como sobre os riscos que apresentem. Para o seu texto, essa é a referência mais direta e mais forte quando a discussão envolve transparência informacional. Disponível em https://www.planalto.gov.br/ccivil_03/leis/l8078compilado.html Acesso em 08/04/2026.

9 PL 2338/2023. BRASIL. Projeto de Lei nº 2.338/2023. O projeto dispõe sobre o uso da inteligência artificial no Brasil, foi aprovado pelo Plenário do Senado Federal em dezembro de 2024 e remetido à Câmara dos Deputados em 17 de março de 2025. Na Câmara, o tema passou a tramitar sob comissão especial específica em 2026, o que revela que o marco regulatório setorial ainda está em construção, embora já sirva como importante vetor interpretativo para debates sobre governança, direitos fundamentais e responsabilidade. Disponível em https://www25.senado.leg.br/web/atividade/materias/-/materia/157233 Acesso em 08/04/2026.

10 RATHBUN, MJ. Rathbun’s Operator. MJ Rathbun | Scientific Coder, 17 fev. 2026. Disponível em: https://crabby-rathbun.github.io/mjrathbun-website/blog/posts/rathbuns operator.html Acesso em 08/04/2026.

Autor

Rhuana Rodrigues César Sócia do Chenut.

Veja mais no portal
cadastre-se, comente, saiba mais

Artigos Mais Lidos