As recentes controvérsias envolvendo o Grok, inteligência artificial desenvolvida pela xAI, empresa fundada por Elon Musk integrada à plataforma X, colocaram em evidência os limites e responsabilidades das empresas do setor.
A complexidade do tema e as brechas técnicas capazes de permitir a criação e disseminação de conteúdos ilícitos reforçam a importância de um debate jurídico, técnico e regulatório sobre o tema.
O desenrolar deste caso no Brasil e até mesmo no mundo potencia uma questão central: a dificuldade de interromper a circulação de conteúdos ilícitos e, principalmente, de preservar provas digitais antes que elas desapareçam, para garantir os direitos das vítimas.
Para a advogada Thaissa Garcia Gomes, mestre em Direito Civil pela PUC/SP, pós-graduada em Direito Digital e Proteção de Dados pela EBRADI e sócia do Albuquerque Melo Advogados, a volatilidade das provas é um grande obstáculo enfrentado por vítimas de imagens manipuladas por inteligência artificial.
"No caso de uso indevido de imagem, especialmente quando envolve conteúdo sexualizado, manipulado por inteligência artificial ou divulgado sem consentimento, além das providências cabíveis na esfera criminal, a vítima também possui direito à reparação na esfera cível, que requer provas", alerta a especialista.
A primeira providência recomendada é a comunicação imediata à plataforma responsável pela hospedagem ou divulgação do conteúdo, solicitando sua retirada urgente, além do registro de boletim de ocorrência, com menção expressa ao uso de tecnologia como IA ou deepfake.
"No entanto, a via administrativa nem sempre se mostra eficaz para eliminar a exposição indevida, sobretudo quando há viralização do conteúdo ou inércia da plataforma", explica. Nesses casos, a atuação de assessoria jurídica é essencial, inclusive para evitar a perda de provas digitais, que podem ser apagadas ou alteradas.
E é, nesse contexto, que ganha protagonismo a ferramenta e-Not Provas, disponibilizada a partir de 2026 pelos Cartórios de Notas em todo o país. Voltada à produção e preservação de provas digitais com fé pública, a ferramenta permite o registro técnico de conteúdos disponíveis na internet, como imagens, vídeos, links e páginas, garantindo validade jurídica ao material coletado.
A advogada explica que a preservação adequada da prova é fundamental para embasar o ajuizamento de ações judiciais e consequentemente para o sucesso das medidas de responsabilização.
"Com o apoio dessa prova, será possível, de forma robusta, requerer a remoção definitiva do conteúdo ilícito, determinar o bloqueio de perfis ou URLs, viabilizar a identificação dos responsáveis, bem como assegurar a indenização por danos morais, que, nesses casos, costuma ser reconhecida de forma presumida", afirma.
A responsabilidade das plataformas digitais no Brasil é regulada pelo Marco Civil da Internet, que foi ratificada por recente entendimento do STF em julgamento concluído em 2025, no que se refere a casos como este.
Na ocasião, o STF consolidou o entendimento de que a omissão da plataforma na retirada de conteúdo manifestamente ilegal, especialmente envolvendo crianças e adolescentes, gera responsabilidade civil, independentemente de ordem judicial específica.
"Esse posicionamento afasta a lógica da neutralidade passiva quando há violação evidente de direitos fundamentais e está alinhado ao princípio da dignidade da pessoa humana e ao dever constitucional de proteção reforçada a grupos vulneráveis", afirma.
Para a especialista, episódios como o do Grok provam que o avanço tecnológico precisa caminhar junto com instrumentos jurídicos capazes de proteger direitos e garantir responsabilização.
A discussão não se esgota na esfera da responsabilidade cível e criminal, mas se desdobra também no âmbito regulatório. A legislação brasileira exige das empresas uma atuação diligente, transparente e responsável na proteção dos dados pessoais em estrita compatibilidade com os riscos envolvidos.
Assim, o tratamento de dados pessoais em desconformidade com a LGPD sujeita os agentes de tratamento a um regime sancionatório severo, que abrange desde advertências e multas expressivas até a suspensão ou a proibição definitiva das operações de tratamento.
Inclusive, em janeiro deste ano, houve uma atuação coordenada da ANPD - Agência Nacional de Proteção de Dados, do MPF - Ministério Público Federal e da Senacon - Secretaria Nacional do Consumidor, vinculada ao Ministério da Justiça e Segurança Pública, que culminou na expedição de recomendações à empresa controladora da plataforma digital X.
Por fim, Thaissa destaca que a atuação proativa das plataformas, e o uso e controle adequado, seguro e transparente dos mecanismos tecnológicos serão decisivos para o enfrentamento dos abusos associados à inteligência artificial generativa no Brasil.