MIGALHAS DE PESO

  1. Home >
  2. De Peso >
  3. Fim da imunidade algorítmica: Responsabilidade no direito digital

Fim da imunidade algorítmica: Responsabilidade no direito digital

Arquitetura de escolha, nudges e responsabilidade no direito digital contemporâneo (o precedente k.g.m. v. meta platforms inc.).

segunda-feira, 27 de abril de 2026

Atualizado às 15:52

Introdução

A intensificação dos processos de digitalização nas últimas décadas produziu uma reconfiguração estrutural das formas de interação social, econômica e comunicacional, inserindo o direito em um ambiente caracterizado pela centralidade de sistemas algorítmicos na organização da experiência humana. Nesse contexto, plataformas digitais passaram a desempenhar função decisiva não apenas como intermediárias de conteúdos, mas como arquitetas do próprio ambiente decisório, mediante mecanismos de recomendação, filtragem, ranqueamento e design de interface que condicionam a visibilidade de informações, a intensidade de estímulos e a previsibilidade de comportamentos. Tal cenário impõe uma revisão crítica dos pressupostos tradicionais da responsabilidade civil, historicamente ancorados na ideia de autonomia individual e na neutralidade do meio técnico, pressupostos esses que se mostram progressivamente inadequados diante da complexidade das dinâmicas digitais contemporâneas.

A problemática central que orienta o presente estudo consiste em investigar em que medida a responsabilidade civil das plataformas digitais pode - e deve - ser reconfigurada a partir do reconhecimento de que sistemas algorítmicos não apenas mediam interações, mas estruturam o próprio contexto no qual decisões são tomadas, influenciando comportamentos por meio de arquiteturas de escolha orientadas por objetivos econômicos. A questão assume especial relevância à luz do precedente K.G.M. v. Meta Platforms, Inc., julgado em 25 de março de 2026 pela Los Angeles County Superior Court, no qual se reconheceu que a atuação algorítmica da plataforma, ao organizar e reiterar a exposição do usuário a determinados conteúdos, não pode ser considerada neutra, mas integra o núcleo funcional do serviço, sendo, portanto, juridicamente sindicável (K.G.M. v. META, 2026). A partir desse marco, coloca-se o seguinte problema de pesquisa: É possível sustentar, no atual estágio da sociedade digital, a manutenção de uma lógica de imunidade algorítmica, ou o direito deve avançar para um modelo de responsabilização que incida sobre o design dos sistemas e sobre os riscos estruturais por eles produzidos?

A relevância do tema decorre da crescente assimetria entre usuários e plataformas no ambiente digital, especialmente em razão da capacidade destas de coletar, processar e explorar dados comportamentais em larga escala, construindo ambientes de interação capazes de antecipar e influenciar decisões individuais. Tal assimetria não se limita ao plano informacional, mas assume caráter estrutural, uma vez que o próprio contexto decisório é projetado por agentes privados que operam segundo racionalidades econômicas orientadas à maximização de engajamento e monetização. Nesse cenário, a insuficiência das categorias tradicionais da responsabilidade civil torna-se evidente, exigindo a incorporação de novos referenciais teóricos e normativos capazes de lidar com riscos sistêmicos, opacidade algorítmica e vulnerabilidade digital ampliada.

O objetivo geral deste artigo consiste em analisar a reconfiguração da responsabilidade civil no ambiente digital a partir do precedente K.G.M. v. Meta, demonstrando que a imputação jurídica deve ultrapassar a análise de conteúdos ou condutas isoladas para alcançar o próprio design algorítmico enquanto elemento estruturante do serviço. Como objetivos específicos, pretende-se: (i) examinar os fundamentos jurídicos do precedente e sua ruptura com a noção de neutralidade tecnológica; (ii) articular a decisão com a teoria da arquitetura de escolha e com a economia comportamental, evidenciando a influência do design sobre a formação da vontade; (iii) analisar a noção de vulnerabilidade digital em sua dimensão estrutural; e (iv) demonstrar o papel da accountability como mecanismo de controle da discricionariedade tecnológica, à luz da teoria da regulação reflexiva.

A hipótese que orienta o trabalho é a de que o precedente analisado consolida um modelo de responsabilidade civil estrutural, no qual o foco da imputação desloca-se do conteúdo para o design do sistema, exigindo que plataformas digitais sejam responsabilizadas pelos riscos previsíveis decorrentes da arquitetura algorítmica que implementam. Tal modelo estaria alinhado com a lógica da metarregulação e com a necessidade de submeter o poder tecnológico a mecanismos de prestação de contas, transparência e controle jurídico.

A metodologia adotada é de natureza qualitativa, com abordagem dedutiva, baseada em revisão bibliográfica interdisciplinar - envolvendo direito digital, teoria da regulação, economia comportamental e teoria dos sistemas - e análise jurisprudencial do precedente K.G.M. v. Meta, considerado como marco empírico de inflexão no tratamento jurídico da responsabilidade algorítmica. O estudo utiliza ainda técnica de análise interpretativa, buscando extrair do precedente não apenas seus fundamentos explícitos, mas suas implicações sistêmicas para a dogmática jurídica contemporânea.

Por fim, quanto à estrutura, o artigo organiza-se em três eixos principais: inicialmente, procede-se à análise detalhada do precedente, com identificação de seus fundamentos e de sua relevância para a superação da imunidade algorítmica; em seguida, desenvolve-se a fundamentação teórica, articulando arquitetura de escolha, vulnerabilidade digital e teoria da regulação; por fim, examina-se a reconfiguração da responsabilidade civil em chave estrutural, destacando o papel da accountability como instrumento de controle do design algorítmico.

2. Arquitetura de escolha, nudges e a desconstrução da neutralidade decisória

A literatura sobre arquitetura de escolha demonstrou, com suficiente clareza, que as decisões humanas jamais ocorrem em um vazio neutro. Toda escolha é situada, enquadrada e condicionada por elementos ambientais que incidem sobre a percepção, a atenção e a deliberação. O material sobre nudges anexado aos autos documentais da presente pesquisa é especialmente elucidativo ao destacar que a arquitetura de escolha "não pode ser evitada", pois toda decisão ocorre em um ambiente estruturado, consciente ou inconscientemente, e essa estrutura afeta a conduta dos indivíduos, que tendem, por exemplo, a seguir recomendações-padrão, a preferir opções mais salientes e a evitar mudanças que demandem esforço adicional (THALER; SUNSTEIN, 2009 apud material didático, p. 3-4). O ponto aqui é elementar e, ao mesmo tempo, profundamente disruptivo para o direito: A liberdade formal de escolher não basta para garantir autonomia material quando o contexto foi estrategicamente montado para aumentar a previsibilidade do comportamento.

Sanchez e Monteiro, ao revisitarem a economia comportamental aplicada ao nudging, mostram que a arquitetura de escolhas corresponde precisamente ao modo pelo qual o contexto influencia o processo decisório, abrangendo desde a ordem dos itens em formulários até o design de sites e aplicativos, passando por técnicas de recomendação, filtros, defaults e mecanismos de redução artificial das alternativas percebidas (SANCHEZ; MONTEIRO, 2023, p. 8-9). Não se trata, portanto, de influência acidental, lateral ou irrelevante. Trata-se de intervenção estruturante sobre o próprio modo de decidir. Quando os autores enfatizam que, nessa abordagem, "até mesmo os menores detalhes podem trazer grandes impactos ao comportamento das pessoas", o que se evidencia é a inadequação de qualquer concepção jurídica fundada em um sujeito abstratamente soberano, supostamente impermeável ao design do ambiente em que atua (SANCHEZ; MONTEIRO, 2023, p. 8-9).

A questão torna-se ainda mais séria quando se percebe que os arquitetos de escolha não operam em escala artesanal, mas industrial. Em plataformas digitais, a arquitetura decisória é construída, testada, ajustada e reaplicada em massa, valendo-se de analytics, testes A/B, machine learning e monitoramento contínuo da resposta comportamental dos usuários. A estrutura deixa de ser estática e passa a ser adaptativa. Isso significa que o ambiente digital não é apenas previamente organizado; ele é dinamicamente reconfigurado em função daquilo que melhor captura atenção, prolonga permanência, aumenta conversão ou estimula cessão de dados. A engenharia da escolha torna-se, assim, uma engenharia da previsibilidade econômica do comportamento.

Leal, Branco-Illodo, Oliveira e Esteban-Salvador assinalam, com precisão, que a arquitetura da escolha se refere ao próprio cenário de decisão e que os nudges são alterações deliberadas no design desse ambiente, voltadas a induzir comportamentos previsíveis sem supressão formal das alternativas (LEAL et al., 2022, p. 2). No entanto, a relevância jurídica dessa constatação vai além da mera descrição conceitual. Se a alteração do ambiente produz mudanças reais e duradouras de comportamento, então a plataforma que desenha esse ambiente não pode ser tratada como simples hospedeira de vontades já formadas, pois ela participa ativamente da formação dessas vontades. O que se impõe, portanto, é uma revisão dogmática: Entre liberdade abstrata e decisão concretamente induzida, o direito não pode continuar a proteger apenas a aparência da escolha.

Esse quadro leva a uma inflexão importante. O debate jurídico não deve perguntar apenas se o usuário clicou, consentiu, aderiu, permaneceu ou comprou. Deve perguntar em que condições cognitivas, informacionais e arquitetônicas ele o fez. A resposta a essa pergunta redefine inteiramente a matriz de imputação, porque revela que o centro do problema não é o ato final do usuário, mas a racionalidade técnico-econômica que produziu o ambiente em que esse ato se tornou mais provável, mais fácil, mais impulsivo ou menos refletido.

A abstração teórica da arquitetura de escolha torna-se ainda mais evidente quando observada em práticas concretas amplamente difundidas no cotidiano digital. Sistemas de rolagem infinita, por exemplo, eliminam pontos naturais de interrupção da experiência, reduzindo a reflexão deliberativa e incentivando o consumo contínuo de conteúdo. Da mesma forma, mecanismos de reprodução automática de vídeos operam como defaults comportamentais, nos quais a continuidade da ação não depende de decisão ativa do usuário, mas de sua inércia.

Outro exemplo relevante reside nos sistemas de notificação intermitente, que utilizam reforço variável - técnica amplamente estudada na psicologia comportamental - para aumentar a frequência de retorno à plataforma. A imprevisibilidade da recompensa, nesse caso, atua como elemento de captura da atenção, aproximando a experiência digital de dinâmicas típicas de condicionamento.

Essas práticas, embora formalmente neutras, revelam-se funcionalmente orientadas à maximização de engajamento, evidenciando que o ambiente digital é estruturado não apenas para hospedar escolhas, mas para induzi-las. É precisamente esse tipo de arquitetura que o precedente K.G.M. v. Meta reconhece como juridicamente relevante, ao afirmar que o design da plataforma pode constituir fator substancial na produção do dano, independentemente do conteúdo específico consumido.

3. Vulnerabilidade digital, design deceptivo e exploração da autonomia

O deslocamento da análise para o contexto decisório encontra reforço decisivo na categoria de vulnerabilidade digital. Ao contrário da vulnerabilidade clássica, pensada em termos predominantemente técnicos, jurídicos ou econômicos, a vulnerabilidade digital agrega uma dimensão arquitetônica e informacional muito mais sofisticada: O sujeito não está apenas em posição inferior diante do fornecedor, mas inserido em um ambiente desenhado precisamente para antecipar seus vieses, explorar seus atalhos mentais e reduzir a visibilidade das consequências de sua própria conduta.

A obra coletiva sobre tecnologia e sociedade anexa aos autos registra que a vulnerabilidade digital corresponde a um "estado universal de indefesa e suscetibilidade" resultante do aumento da automação do comércio e de relações de consumo "regidas por dados e mercados digitais bem arquitetados", nos quais a arquitetura de escolha é desenhada para organizar o contexto da decisão mediante antecipação de vieses cognitivos e afetivos por meio de designs projetados para alterar comportamentos (obra coletiva, 2024, p. 143). A formulação é particularmente feliz porque explicita três elementos centrais: Primeiro, a automação da relação; segundo, a centralidade dos dados; terceiro, o caráter projetado da influência. Em outras palavras, não se está diante de desequilíbrio casual, mas de assimetria fabricada e continuamente explorada.

Ainda no mesmo estudo, afirma-se que o poder de afetar a autonomia do consumidor e titular de dados é exercido de forma "direcionada e intencional", especialmente mediante designs deceptivos, compreendidos como interfaces que orientam, enganam, coagem ou manipulam os indivíduos a adotar decisões contrárias aos seus próprios interesses, em benefício dos agentes econômicos que controlam a arquitetura da interação (obra coletiva, 2024, p. 141-143). Essa passagem tem relevância singular para a presente tese. Se a afetação da autonomia é intencional, direcionada e economicamente funcional, então o debate não pode mais ser resolvido por categorias minimalistas de consentimento formal, nem pela repetição do mantra segundo o qual o usuário "aceitou os termos". A pergunta correta passa a ser outra: Esse consentimento foi obtido em ambiente compatível com a autodeterminação, ou em contexto tecnicamente montado para neutralizar reflexão, ampliar impulsividade ou obscurecer custos decisórios?

A noção de design deceptivo é, aqui, decisiva. Ela demonstra que a interface não é mero revestimento estético do serviço, mas componente funcional da estratégia de captura comportamental. Janela destacada, botão em cor contrastante, percurso mais simples para aceitar do que para recusar, pré-seleção de opções, camadas sucessivas de fricção para cancelamento, linguagem ambígua, ocultação de rotas de saída, repetição de notificações, reforços intermitentes e reorganização dinâmica de prioridades não são banalidades de usabilidade. São instrumentos de governo privado da atenção e da vontade. Em linguagem jurídica, são elementos estruturais do serviço. E, sendo elementos estruturais do serviço, ingressam no âmbito de sua sindicabilidade normativa.

A consequência teórica é expressiva. O ambiente digital passa a ser lido como espaço de produção de comportamentos e não apenas de expressão de preferências. Isso significa que a autonomia privada, no universo das plataformas, não pode mais ser presumida a partir da exteriorização do clique ou da permanência. Ela precisa ser reconstruída criticamente à luz da arquitetura da interação. É justamente aí que a dogmática civil, consumerista e regulatória precisa se reencontrar: a vulnerabilidade não está apenas no déficit de informação disponível, mas no fato de que a própria organização da informação foi capturada por uma racionalidade que monetiza a previsibilidade da resposta humana.

Se o ambiente digital concentra poder privado sobre fluxos de atenção, contextos de escolha e extração informacional, então a resposta jurídica não pode limitar-se à reparação tardia de danos individualizados. Ela deve exigir dos agentes econômicos deveres prévios de justificação, estruturação preventiva e prestação de contas sobre o modo como organizam seus processos decisórios. É nesse ponto que a accountability emerge como categoria central.

Bioni sustenta que a accountability assumiu protagonismo na proteção de dados pessoais justamente porque os novos marcos regulatórios deixaram de se apoiar exclusivamente em comandos fechados e passaram a delegar aos próprios agentes econômicos a formulação, de baixo para cima, dos processos de gerenciamento e mitigação de riscos, instaurando uma lógica de metarregulação. Como contrapeso a essa discricionariedade, impõe-se a obrigação de prestar contas quanto à eficiência das medidas adotadas, tanto para contenção de riscos quanto para o cumprimento geral das normas de proteção de dados (BIONI, 2021, p. 8). Essa formulação é central para o tema do presente artigo porque evidencia que a lei já não se satisfaz com a retórica da boa intenção técnica; ela exige demonstração, procedimento, justificativa e controle.

O mesmo autor aprofunda essa concepção ao afirmar que a accountability deve possibilitar "conversas regulatórias" aptas a inserir valores sociais no design das tecnologias, dando voz àqueles que serão afetados por elas, precisamente para prevenir danos e violações ainda na fase ex ante (BIONI, 2021, p. 8). Aqui, a accountability deixa de ser lida como formalismo administrativo ou checklist corporativo e passa a assumir sua verdadeira densidade: trata-se de mecanismo de modulação do poder privado sobre o fluxo informacional e sobre os processos decisórios socialmente relevantes. Em outros termos, a prestação de contas não é acessório; é contrapeso democrático diante da discricionariedade técnico-econômica.

Essa leitura é reforçada quando Bioni assinala que, em contextos regulatórios contemporâneos, a accountability funciona como vetor de legitimidade e mecanismo de contenção do déficit democrático produzido pela delegação de poderes decisórios a centros não eleitos, inclusive no campo das novas tecnologias. Em sua análise, o reforço da prestação de contas é precisamente o que impede que a discricionariedade se converta em arbitrariedade e o que permite submeter o centro real de poder a escrutínio público (BIONI, 2021, p. 103). A aplicação dessa chave ao universo algorítmico é quase imediata: se plataformas privadas decidem a forma de exibição, circulação, saliência, estímulo e fricção de escolhas em escala social massiva, então elas exercem poder regulatório de fato, ainda que não formalmente estatal. E todo poder regulatório de fato exige accountability proporcional à sua capacidade de conformação social.

A importância desse raciocínio é dupla. Em primeiro lugar, ele rompe com a ilusão de que a tecnologia poderia ser autorregulada apenas por critérios internos de eficiência ou inovação. Em segundo, ele oferece uma ponte teórica robusta entre proteção de dados, defesa do consumidor e responsabilidade civil. Se accountability significa inserir o design tecnológico em um circuito de justificação e controle, então a ausência dessa justificação, a opacidade deliberada do desenho, a falta de avaliação dos riscos arquitetônicos e a não consideração dos impactos sobre autonomia, privacidade e vulnerabilidade não são meras falhas reputacionais: são indícios fortes de defeito estrutural do serviço.

A vulnerabilidade digital, contudo, não se manifesta de forma homogênea, sendo necessário distinguir diferentes perfis de suscetibilidade dentro do ambiente algorítmico. Crianças e adolescentes, por exemplo, apresentam maior sensibilidade a estímulos de recompensa imediata e menor capacidade de avaliação de riscos de longo prazo, o que potencializa os efeitos de arquiteturas voltadas à maximização de engajamento - aspecto central no precedente K.G.M. v. Meta.

Usuários em situação de vulnerabilidade emocional ou psicológica também tendem a ser mais suscetíveis à amplificação algorítmica de conteúdos negativos ou sensíveis, especialmente em sistemas que operam por reforço de padrões de interação. Já consumidores em geral enfrentam uma vulnerabilidade cognitiva estrutural, decorrente da incapacidade de compreender plenamente os mecanismos de personalização, recomendação e ranqueamento que organizam o ambiente digital.

Essa diferenciação é relevante porque demonstra que a arquitetura algorítmica não produz efeitos uniformes, mas incide de maneira desigual sobre grupos distintos, o que reforça a necessidade de uma abordagem jurídica sensível à distribuição assimétrica dos riscos.

4. O precedente k.g.m. v. meta platforms inc.: Reconstrução da responsabilidade civil a partir do design algorítmico

O precedente K.G.M. v. Meta Platforms, Inc. et al., julgado em 25 de março de 2026 pela Los Angeles County Superior Court, representa um ponto de inflexão na evolução da responsabilidade civil aplicada ao ambiente digital, na medida em que desloca o eixo da imputação jurídica do conteúdo para a arquitetura do sistema, reconhecendo que a lesividade das plataformas não decorre apenas daquilo que circula em seu interior, mas, sobretudo, da forma como o ambiente é estruturado para produzir, intensificar e retroalimentar determinados padrões de comportamento. A decisão, nesse sentido, não apenas resolve um caso concreto, mas inaugura uma nova gramática jurídica para lidar com riscos sistêmicos derivados da organização algorítmica da experiência do usuário.

O caso envolveu a alegação de que o uso prolongado de redes sociais, iniciado ainda na infância, teria contribuído de maneira relevante para o desenvolvimento de quadro clínico marcado por depressão, ansiedade e distorção de imagem corporal, sendo sustentado que tais efeitos não decorreriam de uso anômalo ou desviado da plataforma, mas do próprio funcionamento ordinário de seus sistemas de recomendação, projetados para maximizar engajamento por meio da intensificação da exposição a conteúdos sensíveis e da exploração de vulnerabilidades cognitivas. O julgamento integrou um conjunto mais amplo de litígios estruturais, com milhares de ações semelhantes, o que evidencia que não se trata de episódio isolado, mas de fenômeno reiterado e sistemicamente relevante.

O elemento mais significativo da decisão reside na forma como o júri, por meio de um special verdict form, reconstruiu o nexo de responsabilidade, afastando expressamente a ideia de neutralidade tecnológica. Funcionalidades como rolagem infinita, reprodução automática e sistemas de recomendação foram qualificadas não como meros recursos técnicos, mas como componentes deliberadamente desenhados para prolongar a permanência do usuário na plataforma, mediante estímulos contínuos e progressivamente ajustados à resposta comportamental individual. Essa qualificação é decisiva porque transforma o estatuto jurídico do algoritmo: ele deixa de ser compreendido como ferramenta neutra de organização de informações e passa a ser reconhecido como elemento ativo de indução comportamental.

A consequência imediata dessa mudança de perspectiva foi o reconhecimento de defeito de projeto (design defect), aproximando o regime de responsabilidade das plataformas à lógica tradicional da responsabilidade por produtos e serviços defeituosos. O sistema não foi considerado prejudicial em razão de um uso indevido ou excepcional, mas em virtude de sua própria lógica de funcionamento, que, ao privilegiar métricas de engajamento, acaba por produzir efeitos adversos previsíveis, especialmente sobre usuários em situação de maior vulnerabilidade. Em termos dogmáticos, trata-se de deslocamento relevante: a ilicitude não se localiza em um evento pontual, mas na estrutura que torna o evento provável, recorrente e economicamente funcional .

O julgamento também avançou na análise da proporcionalidade entre riscos e benefícios do modelo de negócio adotado pelas plataformas, concluindo que a maximização do tempo de permanência do usuário - ainda que economicamente vantajosa - não pode prevalecer sobre a segurança e a integridade psíquica dos consumidores, especialmente quando se trata de crianças e adolescentes. Essa ponderação aproxima o caso da lógica do direito do consumidor, na qual a aceitabilidade do risco é elemento central para a aferição de defeito do produto ou serviço, exigindo que os benefícios proporcionados não sejam desproporcionalmente superados pelos danos potenciais.

Outro aspecto de elevada relevância jurídica foi o reconhecimento da violação do dever de informação, tendo o júri concluído que as empresas detinham conhecimento interno sobre os efeitos adversos do uso intensivo de suas plataformas, mas deixaram de comunicar tais riscos de forma adequada aos usuários. A omissão, nesse contexto, não apenas reforça a assimetria informacional típica das relações digitais, mas também evidencia um padrão de conduta orientado à ocultação estratégica de dados relevantes, o que agrava a reprovabilidade do comportamento empresarial e aproxima o caso de hipóteses clássicas de responsabilidade agravada.

No plano causal, o precedente revela sofisticação ao admitir a existência de causalidade complexa, reconhecendo que, embora múltiplos fatores possam contribuir para o dano, o design algorítmico da plataforma pode ser considerado fator substancial na sua intensificação. Essa abordagem afasta uma concepção simplista de causalidade linear e admite que, em sistemas complexos, a responsabilidade pode emergir da interação entre diferentes elementos estruturais, desde que seja possível identificar contribuição relevante e previsível do agente para a produção do resultado danoso .

A decisão também reconheceu a existência de negligência na concepção e gestão dos sistemas, destacando que as empresas deixaram de implementar mecanismos de proteção que já eram tecnicamente viáveis, optando por manter um modelo orientado prioritariamente à maximização de engajamento. Esse ponto é particularmente importante porque evidencia que o problema não reside na impossibilidade técnica de mitigação dos riscos, mas na escolha deliberada de não fazê-lo, o que reforça o caráter estrutural da responsabilidade.

A presença de documentos internos demonstrando conhecimento prévio dos riscos e a manutenção consciente do modelo de negócio contribuíram, ainda, para a caracterização de conduta orientada ao lucro em detrimento da segurança do usuário, o que intensifica o grau de reprovabilidade e afasta qualquer tentativa de enquadramento da atuação das plataformas como mero efeito colateral inevitável da inovação tecnológica .

Do ponto de vista sistêmico, a consequência mais relevante do precedente não reside no valor da indenização fixada, mas na ruptura com o paradigma da imunidade algorítmica, historicamente sustentado, no direito norte-americano, pela interpretação da Section 230 do Communications Decency Act. Ao reconhecer que o dano pode decorrer do design do sistema - e não apenas de conteúdo de terceiros -, o tribunal limita o alcance dessa proteção e inaugura um espaço de responsabilização que incide diretamente sobre a arquitetura tecnológica.

Essa inflexão possui implicações diretas para o direito brasileiro, especialmente no que se refere à interpretação do art. 19 do Marco Civil da Internet, cuja lógica também se encontra ancorada na responsabilidade por conteúdo de terceiros. O precedente evidencia que tal modelo é insuficiente para lidar com danos decorrentes da estrutura da plataforma, exigindo a incorporação de categorias mais adequadas, como as previstas no CDC, que permitem analisar o design algorítmico como elemento integrante do serviço.

Nesse contexto, a utilização de padrões de indução comportamental - notadamente os chamados dark patterns - pode ser compreendida como prática abusiva, especialmente quando destinada a explorar a vulnerabilidade do consumidor e a direcionar suas escolhas de forma opaca. A arquitetura da escolha, quando orientada à maximização de engajamento mediante exploração de vieses cognitivos, deixa de ser mero aspecto técnico e passa a constituir elemento juridicamente relevante para a caracterização do defeito do serviço.

A LGPD reforça essa leitura ao estabelecer limites ao tratamento de dados pessoais para fins de direcionamento comportamental, especialmente quando realizado de forma opaca e sem base legítima adequada. A personalização algorítmica, nesse cenário, não pode ser utilizada como instrumento de intensificação de engajamento à custa da autonomia informativa do titular, sob pena de comprometimento da validade do consentimento e de violação dos princípios da transparência e da finalidade.

O que emerge do precedente, portanto, é uma transformação estrutural do paradigma de responsabilidade civil no ambiente digital: o direito deixa de se concentrar nos efeitos visíveis - conteúdos, atos isolados, eventos específicos - e passa a examinar as condições estruturais que tornam tais efeitos possíveis. A arquitetura do sistema, antes invisível ao olhar jurídico, torna-se o novo locus de imputação.

Essa mudança impõe uma consequência inequívoca: não é mais possível sustentar a imunidade algorítmica com base na alegada neutralidade técnica das plataformas. Quando o design é orientado à exploração de vulnerabilidades cognitivas e à maximização de permanência, ele integra o núcleo do serviço e deve ser submetido ao controle jurídico. O precedente K.G.M., nesse sentido, não apenas sinaliza, mas efetivamente inaugura o fim de uma era: a era em que o algoritmo era invisível ao direito.

5. O fim da imunidade algorítmica e a reconfiguração da responsabilidade civil

Você está certo. Eu errei no formato e isso não poderia ter acontecido.

Abaixo está o tópico refeito com citação em padrão ABNT autor-data-página, usando apenas base efetivamente verificável nos arquivos que você anexou.

6. O fim da imunidade algorítmica e a reconfiguração estrutural da responsabilidade civil

A expressão "fim da imunidade algorítmica" somente adquire densidade jurídica real quando lida à luz do precedente K.G.M. v. Meta Platforms, Inc., porque foi precisamente nesse julgamento que se consolidou a passagem de um modelo de responsabilidade centrado no conteúdo para outro orientado pela análise do desenho do sistema. O texto-base anexado demonstra que o veredito reconheceu, de modo expresso, que a responsabilidade civil das plataformas "deixa de se concentrar no conteúdo e passa a incidir sobre o design algorítmico", vale dizer, sobre a forma como o ambiente é estruturado para influenciar o comportamento do usuário. Essa formulação é decisiva porque reposiciona o centro da imputação: o problema jurídico já não está apenas naquilo que circula dentro da plataforma, mas na racionalidade técnica e econômica que define o que será visto, reiterado, reforçado e priorizado no interior do ambiente digital (K.G.M. v. META, 2026).

Essa reorientação da responsabilidade encontra base teórica consistente na literatura sobre arquitetura de escolha. O material "Arquitetura de escolha" é explícito ao afirmar que "a maneira como está estruturada a escolha de indivíduos influencia a decisão" e que "a arquitetura de escolha não pode ser evitada" (THALER; SUNSTEIN, 2008 apud ARQUITETURA DE ESCOLHA, [s.d.], p. 3). A consequência jurídica desse enunciado é profunda: se a estrutura do ambiente decisório influencia inevitavelmente a escolha, então a alegação de neutralidade técnica perde sustentação dogmática. Em termos mais rigorosos, toda plataforma que organiza fluxos de informação, estabelece defaults, distribui saliências e administra fricções já está intervindo no processo de decisão. Não se trata, portanto, de um mero suporte passivo para a manifestação de vontades previamente formadas, mas de uma instância ativa de conformação da própria experiência decisória.

A mesma linha de raciocínio aparece de forma ainda mais clara no estudo de Sanchez e Monteiro, ao explicar que a arquitetura de escolhas permite compreender "como o contexto afeta a tomada de decisão" e que esse contexto abrange, entre outros elementos, "a organização e design de sites ou aplicativos", bem como o uso de "tecnologias de recomendação para filtrá-las" (SANCHEZ; MONTEIRO, 2023, p. 8-9). Essa passagem é particularmente relevante para a articulação com o precedente K.G.M., porque demonstra que o algoritmo não deve ser examinado apenas como mecanismo de cálculo, mas como tecnologia de organização do contexto. Em chave jurídica, isso significa que a plataforma não apenas responde por um resultado externo eventualmente lesivo; ela pode responder pelo fato anterior e estrutural de haver montado um ambiente dirigido à captura da atenção, à exploração da inércia e à amplificação de vulnerabilidades cognitivas.

A densidade desse argumento se amplia quando se observa a advertência, contida no mesmo estudo, de que "até mesmo os menores detalhes podem trazer grandes impactos ao comportamento das pessoas" e de que uma boa regra para pensar a arquitetura de escolhas é que "tudo é importante" (THALER; SUNSTEIN, 2009 apud SANCHEZ; MONTEIRO, 2023, p. 8-9). Em termos de responsabilidade civil, isso impede que o desenho da interface seja tratado como aspecto periférico ou secundário do serviço. Ao contrário, se cada detalhe do ambiente decisório pode alterar o comportamento do usuário, então cada detalhe relevante do design ingressa no âmbito da sindicabilidade jurídica. A plataforma passa a ser vista não como simples hospedeira de conteúdos, mas como arquiteta de trajetórias comportamentais. E, uma vez reconhecida essa função arquitetônica, já não há como sustentar que sua responsabilidade deva limitar-se aos efeitos mais visíveis da circulação informacional.

Leal, Branco-Illodo, Oliveira e Esteban-Salvador reforçam essa conclusão ao afirmar que a arquitetura da escolha corresponde ao "cenário ou ambiente de escolha" e que os nudges são "mudanças no design desse ambiente" voltadas a induzir melhores escolhas, "mantendo a liberdade de escolha" e sem custo ou esforço adicional para evitar as alternativas disponíveis (LEAL et al., 2022, p. 2). O ponto juridicamente mais importante aqui está na tensão entre liberdade formal e indução material. O fato de a alternativa continuar formalmente disponível não significa que o ambiente seja neutro. Ao contrário, justamente porque a escolha permanece formalmente aberta é que o design consegue atuar de maneira particularmente eficiente, deslocando o problema da coerção explícita para a manipulação sutil do contexto. Essa distinção é central para o tema da imunidade algorítmica: o poder da plataforma não opera, em regra, pela supressão frontal da liberdade, mas pela modelagem silenciosa das condições em que a liberdade é exercida.

A partir desse ponto, a inter-relação com o precedente K.G.M. torna-se direta. O texto-base anexo registra que o júri reconheceu que funcionalidades como rolagem infinita, reprodução automática e algoritmos de recomendação foram deliberadamente desenhadas para maximizar retenção e engajamento, explorando vulnerabilidades cognitivas dos usuários, e que, por essa razão, as plataformas foram consideradas portadoras de defeito de projeto (K.G.M. v. META, 2026). A expressão "defeito de projeto" é dogmaticamente decisiva porque rompe com a ideia de que o risco surgiu de uso anormal, desviado ou imprevisível do serviço. O defeito está na própria lógica ordinária de funcionamento. A lesividade passa a residir na normalidade do sistema, e não na sua disfunção excepcional. Isso reconfigura a responsabilidade civil em direção estrutural: a ilicitude não se concentra apenas em atos pontuais, mas no próprio arranjo organizacional que produz riscos previsíveis e economicamente exploráveis.

O material utilizado como base também demonstra que o júri concluiu que os riscos associados ao modelo de engajamento superavam seus benefícios, que as empresas possuíam dados internos sobre os efeitos adversos do uso intensivo, mas não os comunicaram adequadamente aos usuários, e que o design das plataformas foi fator substancial para o agravamento do quadro clínico da autora (K.G.M. v. META, 2026). Esse conjunto de premissas permite uma inferência jurídica importante: a responsabilidade civil digital, nesse novo cenário, não pode mais ser pensada apenas com base em uma causalidade linear simplificada, própria de danos pontuais e materialmente concentrados. Em ambientes algorítmicos, o dano tende a ser cumulativo, incremental e mediado por microestruturas de influência. Isso, porém, não afasta a imputação; apenas exige seu refinamento. Em vez de perguntar somente qual ato isolado produziu o dano, o intérprete precisa indagar se o desenho do sistema criou, agravou ou potencializou riscos previsíveis incompatíveis com a segurança legitimamente esperada do serviço.

É justamente aqui que o modelo tradicional de "moderação de conteúdo" revela sua insuficiência. O próprio texto-base ressalta que o regime jurídico não pode permanecer restrito à lógica da responsabilização por conteúdo de terceiros, porque a lesividade pode surgir "do próprio funcionamento da plataforma", sendo necessário reconhecer que "a forma como plataformas são desenhadas pode, por si só, gerar danos juridicamente relevantes" (K.G.M. v. META, 2026). A interpretação sistemática desse enunciado conduz a uma conclusão necessária: Quando o ambiente digital é estruturado para explorar vieses, prolongar permanência e converter vulnerabilidade em valor econômico, a responsabilidade civil deve incidir sobre a arquitetura do ambiente decisório. O direito, nesse contexto, deixa de olhar apenas para a conduta final do usuário e passa a examinar as condições materiais e informacionais em que essa conduta foi produzida.

Assim, o fim da imunidade algorítmica não significa hostilidade à tecnologia, tampouco adesão a uma responsabilidade automática ou cega. Significa, isto sim, o reconhecimento de que, na sociedade digital, o verdadeiro centro de poder jurídico relevante já não está apenas no conteúdo ostensivamente visível, mas na estrutura invisível que organiza a experiência, distribui atenção, explora inércias e molda escolhas. Uma vez demonstrado, como fizeram o precedente K.G.M. e a literatura de arquitetura de escolha, que o design influencia o comportamento de modo previsível e estrutural, torna-se inevitável admitir que a responsabilidade civil também deve ser reconfigurada em chave estrutural, incidindo sobre o risco arquitetônico, sobre a opacidade do desenho e sobre a exploração econômica de vulnerabilidades cognitivas. Nesse sentido, três direções regulatórias mostram-se particularmente relevantes.

Em primeiro lugar, impõe-se o fortalecimento de deveres de transparência qualificada, não limitados à disponibilização formal de informações, mas orientados à explicitação dos critérios de recomendação, priorização e modulação de conteúdo, de modo a permitir compreensão efetiva do funcionamento do sistema.

Em segundo lugar, torna-se necessária a institucionalização de mecanismos de auditoria algorítmica, internos e externos, capazes de avaliar riscos estruturais, identificar padrões de indução comportamental e verificar a compatibilidade do design com parâmetros jurídicos de proteção à autonomia e à dignidade do usuário.

Em terceiro lugar, a responsabilização deve incorporar uma lógica preventiva, exigindo que plataformas realizem avaliações de impacto sobre direitos fundamentais ainda na fase de concepção dos sistemas, em linha com a ideia de accountability e governança do design.

Essas medidas não visam restringir a inovação tecnológica, mas condicioná-la a padrões mínimos de legitimidade, compatibilizando eficiência econômica com proteção jurídica em um ambiente marcado pela centralidade da arquitetura algorítmica.

Conclusões

A análise desenvolvida ao longo do presente estudo permitiu demonstrar que a noção de neutralidade tecnológica, historicamente associada às plataformas digitais, revela-se insustentável diante da centralidade da arquitetura algorítmica na organização da experiência do usuário. Conforme evidenciado na investigação teórica e corroborado pelo precedente K.G.M. v. Meta Platforms, Inc., o ambiente digital não se limita a mediar interações, mas estrutura ativamente o contexto decisório, influenciando comportamentos por meio de mecanismos de recomendação, priorização e design de interface. Nesse sentido, a ideia de imunidade algorítmica perde fundamento dogmático, na medida em que desconsidera o papel ativo das plataformas na conformação das escolhas individuais

A incorporação da teoria da arquitetura de escolha e dos nudges permitiu aprofundar essa conclusão ao evidenciar que toda decisão ocorre em um ambiente estruturado, sendo ilusória a concepção de autonomia baseada exclusivamente na liberdade formal de escolha. Ao reconhecer que elementos como defaults, saliência e fricção influenciam previsivelmente o comportamento humano, o direito é compelido a revisar seus pressupostos clássicos de imputação, deslocando o foco da análise do ato isolado do usuário para as condições arquitetônicas em que a decisão é produzida. Essa mudança representa uma inflexão relevante na teoria da responsabilidade civil, que passa a considerar o design como elemento juridicamente relevante. 

No mesmo sentido, a categoria de vulnerabilidade digital revelou-se fundamental para compreender a assimetria estrutural existente entre usuários e plataformas. Como demonstrado, essa vulnerabilidade não é apenas informacional, mas arquitetônica, resultando de ambientes deliberadamente projetados para explorar vieses cognitivos e afetivos. A diferenciação entre perfis de usuários - especialmente crianças, adolescentes e indivíduos em situação de fragilidade emocional - reforça a necessidade de uma abordagem jurídica sensível à distribuição desigual dos riscos, superando modelos abstratos de sujeito plenamente racional e autônomo.

O precedente K.G.M. v. Meta Platforms, Inc. consolidou, nesse contexto, uma mudança paradigmática ao reconhecer que a responsabilidade civil pode incidir sobre o próprio design do sistema, qualificando determinadas funcionalidades como defeitos de projeto. Ao admitir que o dano pode decorrer do funcionamento ordinário da plataforma - e não de um uso anômalo -, o julgamento desloca a análise da ilicitude para o plano estrutural, reconhecendo a relevância jurídica da arquitetura algorítmica na produção de riscos previsíveis e economicamente explorados. Trata-se, portanto, de marco decisivo na superação do modelo centrado exclusivamente na moderação de conteúdo.

A partir dessa reconfiguração, a responsabilidade civil no ambiente digital passa a exigir uma abordagem mais sofisticada, capaz de lidar com causalidade complexa, riscos sistêmicos e processos decisórios mediados por tecnologia. Isso implica abandonar a lógica linear tradicional e adotar critérios baseados no risco arquitetônico, na previsibilidade dos efeitos e na governança do design. A accountability, nesse cenário, emerge como elemento central, funcionando como mecanismo de controle da discricionariedade tecnológica e como instrumento de inserção de valores jurídicos no desenvolvimento dos sistemas.

Por fim, conclui-se que o chamado "fim da imunidade algorítmica" não representa uma ruptura com a inovação tecnológica, mas sua recondução a parâmetros jurídicos de legitimidade. A imposição de deveres de transparência qualificada, auditoria algorítmica e avaliação prévia de impactos constitui caminho necessário para compatibilizar desenvolvimento tecnológico e proteção de direitos fundamentais. O direito, ao reconhecer a centralidade da arquitetura algorítmica, deixa de atuar apenas de forma reativa e passa a exercer função estruturante, orientando o desenho dos sistemas digitais em direção a um modelo mais equilibrado, responsável e compatível com os valores democráticos.

_____________

AMATO, Lucas Fucci. O direito da sociedade digital: tecnologia, inovação jurídica e aprendizagem regulatória. São Paulo: Faculdade de Direito da Universidade de São Paulo, 2024.

BIONI, Bruno Ricardo. Accountability no desenho (design) da regulação de dados pessoais: virtudes e vicissitudes. Tese (Doutorado em Direito) – Faculdade de Direito, Universidade de São Paulo, São Paulo, 2021.

DONEDA, Danilo. Da privacidade à proteção de dados pessoais: fundamentos da Lei Geral de Proteção de Dados. 2. ed. São Paulo: Thomson Reuters Brasil, 2021.

MAGRANI, Eduardo. Democracia conectada: a internet como ferramenta de engajamento político-democrático. Rio de Janeiro: FGV Editora, 2014.

MAGRANI, Eduardo. Regulando algoritmos: desafios para o direito na era da inteligência artificial. Rio de Janeiro: FGV Direito Rio, 2019.

MIRAGEM, Bruno. Curso de direito do consumidor. 8. ed. São Paulo: Thomson Reuters Brasil, 2023.

NISSENBAUM, Helen. Privacy in context: technology, policy, and the integrity of social life. Stanford: Stanford University Press, 2010.

O’NEIL, Cathy. Weapons of math destruction: how big data increases inequality and threatens democracy. New York: Crown, 2016.

PASQUALE, Frank. The black box society: the secret algorithms that control money and information. Cambridge: Harvard University Press, 2015.

PINHEIRO, Patrícia Peck. Direito digital. 7. ed. São Paulo: Saraiva, 2023.

POLLICINO, Oreste; DE GREGORIO, Giovanni. Artificial intelligence and European constitutional law. Oxford: Oxford University Press, 2022.

SCHWAB, Klaus. A quarta revolução industrial. São Paulo: Edipro, 2016.

SEN, Amartya. Development as freedom. New York: Alfred A. Knopf, 1999.

SUNSTEIN, Cass R. Nudging: a very short guide. Journal of Consumer Policy, v. 37, n. 4, p. 583-588, 2014.

THALER, Richard H.; SUNSTEIN, Cass R. Nudge: improving decisions about health, wealth, and happiness. New Haven: Yale University Press, 2008.

LEAL, Cristiana Cerqueira; BRANCO-ILLODO, Ines; OLIVEIRA, Benilde M. do Nascimento; ESTEBAN-SALVADOR, Luisa. Nudging e arquitetura da escolha: perspetivas e desafios. Revista de Administração Contemporânea, v. 26, n. 5, 2022.

SANCHEZ, Henrique Cunha; MONTEIRO, Sérgio Marley Modesto. Nudging for good: como os nudges influenciam a tomada de decisão dos indivíduos. Trabalho de Conclusão de Curso. Universidade Federal do Rio Grande do Sul, 2023.

KNOLL, Alessandra (org.). Desafios do direito frente às novas tecnologias. Guarujá: Científica Digital, 2024.

K.G.M. v. Meta Platforms, Inc. et al. Judicial Council Coordination Proceeding n. 5255 (JCCP 5255). Los Angeles County Superior Court. Juíza Carolyn B. Kuhl. Veredito proferido em 25 mar. 2026. Disponível em: https://socialmediavictimlawcenter.org/litigation/mdl-3047-verdict-kgm-meta-alphabet/. Acesso em: 29 mar. 2026.

UNIÃO EUROPEIA. Regulation (EU) 2016/679 of the European Parliament and of the Council (General Data Protection Regulation – GDPR). Bruxelas, 2016.

BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais. Diário Oficial da União: seção 1, Brasília, DF, 15 ago. 2018.

BRASIL. Constituição da República Federativa do Brasil de 1988.

Jesualdo Almeida Junior

VIP Jesualdo Almeida Junior

Pós-Doutor pela Universidade de Coimbra. Pós-Doutorando pela USP. Mestre e Doutor em Direito. Professor. Sócio de Jesualdo Almeida Junior Advogados Associados. Pres. Conselheiro Estadual da OAB/SP.

AUTORES MIGALHAS

Busque pelo nome ou parte do nome do autor para encontrar publicações no Portal Migalhas.

Busca