Dark patterns são interfaces de usuário online que buscam subverter, manipular ou prejudicar a autonomia, a tomada de decisão ou a escolha do usuário (Zac et al, 2025). Ou seja, são opções de design de interface que favorecem um serviço online ao pressionar, influenciar ou enganar os usuários, levando-os a tomar decisões que possivelmente não tomariam se estivessem totalmente informados e aptos a escolher alternativas, talvez não tomassem (Sheil et al, 2024). Eles não envolvem apenas a estética do site ou aplicativo, mas a estrutura e a lógica de interação. O objetivo é explorar vieses cognitivos e lacunas de atenção para coletar mais dados do que o necessário, dificultar o cancelamento de serviços, induzir compras adicionais ou manipular configurações de privacidade. Ainda segundo Zac et al. (2025):
Common examples of dark patterns include misleading statements such as ‘Only 1 left!’ (Exploding offers), the use of questions that trick people into giving an answer they do not intend (Trick questions), interfaces which make it difficult to exit a screen, reject an offer or cancel a subscription (Roach motel), and manipulations that make users feel ashamed or guilty for not accepting or opting into a service (Confirm shaming).1
Ou seja, é possível notar a utilização desse tipo de manipulação no dia a dia, quando o consumidor vai efetuar algum tipo de compra, por exemplo, já é normal para o público que apareça algum tipo de aviso de baixo estoque para que a compra seja efetivada no menor tempo possível. Um exemplo de roach motel que é possível indicar por experiência própria é a mudança do tipo de perfil privado para público, na plataforma da Meta Instagram. É com muita facilidade que se consegue atribuir, por exemplo, uma classificação de “blog pessoal” para a conta no Instagram, mas é consideravelmente difícil e confuso retirar esse rótulo e fazer com que a conta retorne ao modo privado.
No geral, são táticas de design que são utilizadas sem o conhecimento do consumidor para alcançar maior sucesso no objetivo engendrado pela empresa. Os exemplos mais comuns de dark patterns são: (a) roach motel: serviços que são fáceis de se inscrever, mas extremamente difíceis de cancelar/sair; (b) confirm shaming: uso de linguagem específica para manipular e envergonhar o usuário que opta por não aceitar algum produto ou serviço (ex.: “Não, eu não quero melhorar minha saúde”); (c) sneak into basket: técnica de adicionar itens ao carrinho do usuário sem expresso consentimento; (d) privacy Zuckering: indução do usuário para que ele compartilhe mais dados pessoais do que pretendido; (e) misdirection: destaque visual de opções que favorecem a empresa e ocultação ou menor visibilidade de opções que são melhores para o consumidor; e (f) bait and switch: promessa de uma função, entrega de outra distinta.
Oito estratégias de dark patterns na privacidade são elencadas como: (a) maximizar: significa que a quantidade de dados pessoais coletados, armazenados ou processados é significativamente maior do que o realmente necessário para a tarefa; (b) publicar: publicação dos dados pessoais; (c) centralizar: dados pessoais são coletados, armazenados ou processados por uma entidade central; (d) preservar: as interrelações entre diferentes itens de dados não devem ser afetadas pelo processamento; (e) obscurecer: é difícil ou mesmo impossível para os titulares dos dados saberem como seus dados pessoais são coletados, armazenados e processados; (f) negar: os titulares dos dados têm o controle sobre seus dados negado; (g) violar: a política de privacidade apresentada ao usuário é violada intencionalmente; e (h) falsificar: uma entidade que coleta, armazena e processa dados pessoais afirma implementar uma forte proteção de privacidade, mas, na verdade, apenas finge fazê-lo (Bösch et al, 2016).
Para o objetivo deste ensaio, focaremos na prática de privacy Zuckering, prática que impede que os usuários compreendam claramente o destino dos dados que fornecem. Uma forma de alcançar isso é elaborar políticas de privacidade carregadas de jargões técnicos, que sejam pouco acessíveis para a maioria das pessoas. Além disso, o design das interfaces pode ser intencionalmente elaborado para confundir ou enganar, resultando em escolhas que não correspondem à vontade inicial do usuário (Bösch et al, 2016).
Private Zuckering acontece quando o acesso e o uso de dados pessoais são regidos por configurações de privacidade específicas para cada usuário e passíveis de modificação. Os usuários podem escolher as configurações que melhor reflitam suas preferências e necessidades. Entretanto, apesar de permitir que os usuários alterem suas configurações de privacidade, as configurações são desnecessariamente complexas, excessivamente detalhadas ou incompreensíveis para eles. Dessa forma, o usuário acaba por desistir ou faz alterações não intencionais em suas configurações de privacidade. Muito embora o provedor de aplicações afirme que os usuários possuem total controle sobre as configurações de privacidade, a terminologia utilizada e a experiência do usuário desencorajam qualquer alteração. E, quando combinado com o dark pattern Bad Defaults2, esse padrão facilita a imposição das configurações de privacidade sugeridas pelo provedor de aplicações. O privacy Zuckering pode levar a mudanças não intencionais das configurações de privacidade, quando a complexidade das configurações não corresponde à percepção do usuário e, portanto, impede ajustes conforme a preferência originalmente desejada (Bösch et al, 2016).
Com configurações excessivamente complexas e terminologias inadequadas, o usuário tende a se conformar com as estratégias de dark patterns. Pois quando ele está motivado a realizar alterações nas configurações de privacidade, as dificuldades o fazem sentir sobrecarregado e frustrado, não conseguindo realizar ajustes de forma intencional, acabando por fazer mudanças vagas ou desistindo de alterá-las completamente.
Fica cada vez mais claro que há uma intersecção com o chamado “capitalismo de vigilância”, onde a lógica é transformar a vida humana em dados que possam ser vendidos, num processo que é comparado a uma nova forma de colonização. Sendo que, desta vez, não estamos tratando de territórios físicos, mas da própria experiência individual. O capitalismo de vigilância se apropria, de forma unilateral, da experiência humana, tratando-a como insumo gratuito para a extração e conversão em dados comportamentais. Esse modelo econômico ultrapassa a mera automação dos fluxos de informação a nosso respeito, passando a ter como objetivo central a própria automação de nossos comportamentos, moldando escolhas, preferências e ações de maneira cada vez mais imperceptível e sistemática (Zuboff, 2020, n. p.).
Essas táticas utilizadas para “guiar” comportamento online, têm, consequentemente, impactos na vida offline do titular. Impactos os quais são ignorados ou tratados como danos colaterais aceitáveis resultantes da ganância e falta de transparência corporativa. Nesse sentido, o cenário contemporâneo caracteriza-se por um processo acelerado de dataficação, no qual dimensões cada vez mais amplas da vida social, econômica e política são traduzidas em dados quantificáveis, e pela intensificação da plataformização, em que empresas de tecnologia assumem papel central na mediação das interações digitais.
Esse contexto tem promovido uma reconfiguração substancial das dinâmicas de poder entre corporações, Estados e cidadãos, resultando em novas assimetrias e desafios regulatórios. Entretanto, ainda persiste a concepção ciberlibertária que enxerga a internet como um espaço etéreo, imaterial e desvinculado do mundo físico - uma narrativa que ignora as conexões intrínsecas entre o ecossistema digital e as estruturas materiais, econômicas e políticas que o sustentam. Essa visão, embora sedutora, desconsidera que as plataformas digitais operam inseridas em redes corporativas e marcos regulatórios específicos, influenciando diretamente práticas sociais, mercados e políticas públicas (Bioni et al, 2025).
Conclusão
A análise dos dark patterns, em especial o privacy Zuckering, mostra que eles não são apenas detalhes de design ou escolhas técnicas inocentes. Na prática, são ferramentas de manipulação muito bem pensadas, que servem aos interesses do chamado capitalismo de vigilância, por Zuboff. Essas práticas criam ambientes digitais onde a autonomia do usuário é constantemente pressionada e direcionada para atender a objetivos comerciais. Esse tipo de manipulação mina a liberdade real de escolha, transformando a navegação online em um espaço de controle disfarçado.
Nesse contexto, o conceito de excedente comportamental, também criado por Shoshana Zuboff, é fundamental. Ele representa aquele “resto” de informações que as plataformas coletam além do necessário para oferecer o serviço. Esse excedente, invisível, mas valioso, vira matéria-prima para modelos de predição e técnicas de influência sobre o comportamento. Na prática, os dark patterns, especialmente os ligados à privacidade, aumentam esse excedente, porque induzem as pessoas a entregar mais dados do que gostariam ou a desistir de seus direitos diante de processos confusos e cansativos. E esses fenômenos não são falhas ou acaso: são uma estratégia deliberada para explorar a falta de tempo e atenção dos usuários.
Pode-se entender, portanto, que o excedente comportamental é o motor que mantém o capitalismo de vigilância funcionando. Ele garante que as plataformas não só coletem dados, mas também antecipem e até manipulem nossas ações. Ao transformar esses dados em produtos preditivos, cria-se um ciclo perverso: os usuários deixam de ser apenas consumidores e viram matéria-prima para a criação de mercados baseados no nosso próprio comportamento. Nesse sentido, entende-se que os dark patterns não são truques pequenos ou isolados; eles fazem parte de um sistema econômico que normaliza a extração constante da vida humana em forma de dados.
Zuboff defende que o excedente comportamental não é apenas um “subproduto” da tecnologia, mas sim parte de uma estratégia consciente de exploração da experiência humana. Exemplos como o privacy Zuckering, que ocorre quando usuários são levados a abrir mão de sua privacidade quase sem perceber, deixam isso claro. O mais preocupante é que essas práticas se escondem sob a aparência de neutralidade técnica, quando na verdade são políticas, pois consolidam formas de dominação invisíveis. Isso mostra que respostas regulatórias firmes e urgentes são extremamente necessárias. Legislações como o CDC e o CC podem jogar uma luz para tentar coibir esse tipo de prática, mas uma regulamentação específica parece fazer mais sentido dentro do cenário brasileiro, uma vez que apenas a utilização de legislações anteriores e mais generalistas pode dar margem a “escapes” e contornos das regras.
Em resumo, os dark patterns e o excedente comportamental são duas faces da mesma moeda: a exploração da vulnerabilidade humana em um sistema digital guiado pelo lucro. De um lado, criam a sensação enganosa de autonomia, de outro, corroem essa autonomia de maneira silenciosa. O grande desafio regulatório atual é romper esse ciclo de captura e devolver às pessoas não apenas o controle sobre seus dados, mas também a chance real de viver em um ambiente digital mais justo, transparente e democrático.
_____________________________
1 Tradução livre: “Exemplos comuns de dark patterns incluem declarações enganosas, como “Só resta 1!” (Exploding offers), o uso de perguntas que induzem as pessoas a dar uma resposta que não pretendiam (Trick questions), interfaces que dificultam sair de uma tela, recusar uma oferta ou cancelar uma assinatura (Roach motel), e manipulações que fazem os usuários se sentirem envergonhados ou culpados por não aceitarem ou aderirem a um serviço (Confirm shaming).”
2 BÖSCH, Christoph; ERB, Benjamin; KARGL, Frank; KOPP, Henning; PFATTHEICHER, Stefan. Tales from the Dark Side: Privacy Dark Strategies and Privacy Dark Patterns. Proceedings on Privacy Enhancing Technologies, v. 2016, n. 4, p. 237–254, 2016. DOI: 10.1515/popets-2016-0038:
“This dark pattern is used mainly on websites, by applications, or in social networks. For Bad Defaults to have an effect it is often necessary that the system has some form of user accounts. ... When creating an account at a service provider the default options are sometimes chosen badly in the sense that they ease or encourage the sharing of personal information. Most users will be too busy to look through all the options and configure their account properly. Thus, they often unknowingly share more personal information than they intend to.”
BARONI, Luiz Adolpho; PUSKA, Alisson Andrey; SALGADO, Luciana Cardoso de Castro; e PEREIRA, Roberto. 2021. Dark Patterns: Towards a Socio-technical Approach. In Proceedings of the XX Brazilian Symposium on Human Factors in Computing Systems (IHC '21). Association for Computing Machinery, New York, NY, USA, Article 15, 1–7. https://doi.org/10.1145/3472301.3484336
BHOOT, A. M.; SHINDE, M. A.; MISHRA, W. P. Towards the identification of dark patterns: an analysis based on end-user reactions. In: INDIAN CONFERENCE ON HUMAN-COMPUTER INTERACTION, 2020, Online. Proceedings .... New York: ACM, 2020. p. 24–33. DOI: https://doi.org/10.1145/3429290.3429293.
BIONI, Bruno; RIELLI, Mariana; ZANATTA, Rafael. Beyond Digital Rights: Towards a Fair Information Ecosystem? TechPolicy.Press, 28 fev. 2025. Disponível em: https://www.techpolicy.press/beyond-digital-rights-towards-a-fair-information-ecosystem/. Acesso em: 15 ago. 2025.
BÖSCH, Christoph; ERB, Benjamin; KARGL, Frank; KOPP, Henning; PFATTHEICHER, Stefan. Tales from the Dark Side: Privacy Dark Strategies and Privacy Dark Patterns. Proceedings on Privacy Enhancing Technologies, v. 2016, n. 4, p. 237–254, 2016. DOI: https://doi.org/10.1515/popets-2016-0038.
EGENFELDT-NIELSEN, Simon. Dark Pattern: A Serious Game for Learning About the Dangers of Sharing Data. In: EUROPEAN CONFERENCE ON GAMES BASED LEARNING, 2022. Disponível em: https://tinyurl.com/5bc3vp6z. Acesso em: 14 ago. 2025.
SHEIL, A.; ACAR, G.; SCHRAFFENBERGER, H.; GELLERT, R.; MALONE, D. Staying at the Roach Motel: Cross-Country Analysis of Manipulative Subscription and Cancellation Flows. Proceedings of the ..., 2024. DOI: https://doi.org/10.1145/3613904.3642881.
ZAC, Amit; HUANG, Yu-Chun; MOLTK, Amédée von; DECKER, Christopher; EZRACHI, Ariel. Dark patterns and consumer vulnerability. Behavioural Public Policy, Cambridge: Cambridge University Press, 2025. p. 1–50. DOI: https://doi.org/10.1017/bpp.2024.49.
ZUBOFF, Shoshana. A era do capitalismo de vigilância: a luta por um futuro humano na nova fronteira do poder. Rio de Janeiro: Intrínseca, 2020.