MIGALHAS DE PESO

  1. Home >
  2. De Peso >
  3. Shadow AI e a ilusão da conformidade institucional

Shadow AI e a ilusão da conformidade institucional

Shadow AI nas empresas expõe uso não autorizado de IA generativa, gerando riscos à LGPD e falhas em compliance e governança corporativa no trabalho.

sexta-feira, 15 de maio de 2026

Atualizado às 15:47

Em algum momento de 2023, empresas de todo o mundo começaram a receber relatórios internos de TI com um dado perturbador: colaboradores usavam ChatGPT, Gemini e outras ferramentas de IA generativa para processar documentos internos, redigir comunicações sensíveis e, em alguns casos, inserir dados de clientes em sistemas fora do perímetro corporativo.

Muitas dessas empresas tinham, naquele momento, políticas de uso de IA publicadas, treinamentos recentes e um DPO designado. O papel estava em ordem. A prática, não1.

Esse fenômeno recebeu o nome de Shadow AI, por analogia ao Shadow IT dos anos 2000: o uso não autorizado de tecnologia por colaboradores que encontraram, fora do catálogo aprovado pela organização, ferramentas mais rápidas e mais eficientes do que as que o ambiente institucional oferecia.

A diferença é que, agora, o dado que transita nesses canais não autorizados inclui informações pessoais de clientes, parceiros e colaboradores, com todas as consequências que a lei federal  13.709, de 2018, atribui a esse tratamento2.

O problema que os programas de compliance não conseguem enxergar

A resposta institucional padrão ao Shadow AI segue um roteiro previsível: atualizar a política de uso aceitável de tecnologia, inserir uma cláusula específica sobre IA generativa, promover um treinamento de conscientização e comunicar a todos que o uso não autorizado configura violação disciplinar. Esse roteiro satisfaz auditores e produz evidências documentais. O que ele não faz é resolver o problema.

O colaborador que inseriu dados de clientes no ChatGPT não estava desafiando a política corporativa por princípio. Ele estava tentando cumprir uma demanda em tempo hábil, com as ferramentas que funcionavam. A ferramenta homologada era lenta, limitada ou inexistente. A ferramenta proibida entregava em segundos o que o processo oficial levaria horas para produzir. Nesse contexto, proibir sem oferecer alternativa equivale a fechar o caixa eletrônico e esperar que as filas no banco não cresçam3.

Esse é o ponto que os programas de compliance estruturados em torno de normas e punições sistematicamente ignoram: comportamento desviante recorrente não é evidência de má-fé generalizada. É evidência de que o processo oficial tem um problema que a organização ainda não resolveu.

O que a LGPD enxerga diferente

A lei federal  13.709, de 2018, não organizou a responsabilidade do controlador em torno da intenção do colaborador que causou o incidente. O art. 46 obriga o controlador a adotar medidas técnicas e administrativas aptas a proteger os dados pessoais de acessos não autorizados e de situações acidentais ou ilícitas de destruição, perda, alteração, comunicação ou difusão. Essa obrigação não admite a defesa de que o incidente decorreu de uso não autorizado por um colaborador4.

O princípio da responsabilização e prestação de contas, previsto no art. 6º, inciso X, reforça esse entendimento: o controlador deve demonstrar a adoção de medidas eficazes para o cumprimento das normas de proteção de dados pessoais5. A palavra relevante é “eficazes”. Uma política que os colaboradores sistematicamente ignoram é apenas um documento, ineficaz.

Quando um colaborador insere dados pessoais de clientes em uma ferramenta de IA não homologada e esses dados são posteriormente utilizados para treinamento do modelo ou expostos em um incidente de segurança, o controlador responde pelo tratamento inadequado. A cadeia causal passa pelo colaborador, mas a responsabilidade jurídica permanece na organização6.

Cultura de conformidade como variável de risco

O conceito de cultura de conformidade aparece com frequência em documentos de governança corporativa e compliance, geralmente tratado como um objetivo de longo prazo, algo a ser construído gradualmente por meio de campanhas de conscientização. Essa formulação subestima o problema7.

Cultura de conformidade se constrói quando os colaboradores percebem o processo oficial como a forma mais prática de resolver os problemas do trabalho. Treinamentos acumulados, por si, não produzem esse resultado. Quando esse estado não existe, a política existe em paralelo com a prática, e os dois mundos raramente se cruzam.

No contexto da IA generativa, a lacuna entre política e prática tem uma causa bem identificável: a maioria das organizações proibiu ferramentas antes de provisionar alternativas.

A sequência lógica seria mapear os casos de uso legítimos que os colaboradores precisam atender, avaliar quais ferramentas podem cumprir esses casos dentro de parâmetros aceitáveis de segurança e privacidade, homologar essas ferramentas e, só então, proibir o restante. O que ocorreu, na maior parte dos casos, foi o inverso.

O que o Shadow AI revela sobre a maturidade do programa

Um programa de compliance maduro trata o Shadow AI como dado diagnóstico, não como problema disciplinar. A pergunta que importa é outra: por que essa ferramenta existe no ambiente, e quais necessidades ela atende que o catálogo oficial não cobre?

A resposta a essa pergunta quase sempre aponta para uma de três situações: ausência de ferramenta homologada para um caso de uso legítimo, ferramenta homologada com usabilidade inadequada para o fluxo real de trabalho, ou processo de solicitação de novas ferramentas tão burocrático que o colaborador desistiu antes de tentá-lo.

Nenhuma dessas situações é resolvida por política ou punição. Todas elas exigem intervenção de produto, processo ou governança.

Implicações para a governança de IA

O debate sobre governança de IA nas organizações tende a focar nos modelos: quais usar, como auditar, quais garantias contratuais exigir dos fornecedores. Essas são perguntas legítimas, mas secundárias se a organização não resolveu a camada anterior, que é garantir que os sistemas formalmente adotados sejam de fato usados8.

Um programa de governança de IA que não endereça Shadow AI está regulando o cenário ideal enquanto o cenário real opera fora do seu escopo. As políticas alcançam os modelos homologados; o risco real está nos não homologados.

A ANPD, ao publicar orientações sobre proteção de dados no contexto de IA generativa, não distinguiu entre uso autorizado e não autorizado na atribuição de responsabilidades ao controlador. Fez bem.

Do ponto de vista do titular dos dados cujas informações foram processadas em uma ferramenta sem contrato de processamento, aviso de privacidade adequado ou avaliação de impacto prévia, a distinção entre uso autorizado e não autorizado é irrelevante. O dado foi tratado. O risco se materializou9.

O programa que funciona só quando é seguido

Um programa de compliance que depende da adesão voluntária de todos os colaboradores para funcionar não é uma aposta, não um programa de controle de risco. A distinção importa porque os dois exigem investimentos distintos, produzem evidências que não se equivalem e respondem de modo diverso diante de uma investigação regulatória.

Organizações que levam a sério a proteção de dados pessoais em ambientes com IA generativa precisam resolver o problema do Shadow AI na camada correta: provisionar ferramentas adequadas, construir processos que reduzam o custo de conformidade para o colaborador e monitorar ativamente o uso de ferramentas externas. Isso é mais caro e mais complexo do que publicar uma política atualizada.

É também a única abordagem que reduz o risco de fato. O resto é papel.

_________

ACIOLY, Luis Henrique de Menezes. Reflexões sobre a Utilização da Inteligência Artificial e Algoritmos nas Relações Consumeristas à Luz da Lei Geral de Proteção de Dados. Revista Brasileira de Direito Comercial, Porto Alegre: Lex Magister, v. 48, ago./set. 2022, p. 165-187.

ACIOLY, Luis Henrique de Menezes; COSTA, Jéssica Hind Ribeiro. O regime de responsabilidade civil na LGPD e a cláusula geral de imputação objetiva: o diálogo de fontes como padrão interpretativo. REJUR – Revista Jurídica da UFERSA, Mossoró, v. 8, n. 15, jan./jun. 2024, p. 89-116.

ACIOLY, Luis Henrique de Menezes; MENDES, Isabelle Brito Bezerra; MONTEIRO NETO, João Araújo. As avaliações de impacto como instrumentos de inteligibilidade algorítmica e garantia de direitos fundamentais na regulação de inteligência artificial. Diké, Ilhéus: UESC, v. 22, n. 24, p. 225-251, jul./dez. 2023.

ACIOLY, Luis Henrique de Menezes; MONTEIRO NETO, João Araújo. A publicidade registral imobiliária e a técnica de registrabilidade por extratos eletrônicos: contributos para a proteção de dados pessoais no registro de imóveis. Revista de Direito Imobiliário, São Paulo: Ed. RT, vol. 99, ano 48, p. 87-126, jul./dez. 2025.

BIONI, Bruno Ricardo. Proteção de dados pessoais: a função e os limites do consentimento. 3. ed. Rio de Janeiro: Forense, 2021.

CAPANEMA, Walter Aranha. A Responsabilidade Civil na Lei Geral de Proteção de Dados. Cadernos Jurídicos, São Paulo, ano 21, n. 53, p. 163-170, jan./mar. 2020.

CAVOUKIAN, Ann. Privacy by design: the 7 foundational principles. Information and Privacy Commissioner of Ontario, Canada, v. 5, p. 40, 2009.

MULHOLLAND, Caitlin; GOMES, Rodrigo Dias de Pinho. Inteligência Artificial e Seus Principais Desafios para os Programas de Compliance e as Políticas de Proteção de Dados. In: CUEVA, Ricardo Villas Bôas; FRAZÃO, Ana (coords.). Compliance e Política de Proteção de Dados. São Paulo: Thomson Reuters Brasil, 2021, p. 161-180.

SCHREIBER, Anderson. Responsabilidade Civil na Lei Geral de Proteção de Dados. In: DONEDA, D.; SARLET, I. W.; MENDES, L. S.; RODRIGUES JÚNIOR, O. L. (org.). Tratado de Proteção de Dados Pessoais. Rio de Janeiro: Forense, 2021, p. 330-349.

_________

1 A dinâmica de massificação tecnológica da IA e seus reflexos sobre as estruturas organizacionais e regulatórias é abordada em: ACIOLY, Luis Henrique de Menezes. Reflexões sobre a Utilização da Inteligência Artificial e Algoritmos nas Relações Consumeristas à Luz da Lei Geral de Proteção de Dados. Revista Brasileira de Direito Comercial, Porto Alegre: Lex Magister, v. 48, ago./set. 2022, p. 165-187.

2 Sobre a amplitude do conceito de tratamento de dados pessoais e suas implicações para o controlador, cf. BIONI, Bruno Ricardo. Proteção de dados pessoais: a função e os limites do consentimento. 3. ed. Rio de Janeiro: Forense, 2021. A amplitude do conceito de tratamento, nos termos do art. 5º, X, da LGPD, abrange qualquer operação realizada com dados pessoais, inclusive o acesso, a transmissão e o processamento por terceiros, independente do canal utilizado.

3 Para análise crítica dos instrumentos de compliance e governança de IA no contexto contratual, inclusive quanto à tensão entre eficiência operacional e conformidade, cf. MULHOLLAND, Caitlin; GOMES, Rodrigo Dias de Pinho. Inteligência Artificial e Seus Principais Desafios para os Programas de Compliance e as Políticas de Proteção de Dados. In: CUEVA, Ricardo Villas Bôas; FRAZÃO, Ana (coords.). Compliance e Política de Proteção de Dados. São Paulo: Thomson Reuters Brasil, 2021, p. 161-180.

4 LGPD, art. 46: "Os agentes de tratamento devem adotar medidas de segurança, técnicas e administrativas aptas a proteger os dados pessoais de acessos não autorizados e de situações acidentais ou ilícitas de destruição, perda, alteração, comunicação ou qualquer forma de tratamento inadequado ou ilícito." Sobre a qualificação do tratamento irregular e seus reflexos para a responsabilidade civil do controlador, v. CAPANEMA, Walter Aranha. A Responsabilidade Civil na Lei Geral de Proteção de Dados. Cadernos Jurídicos, São Paulo, ano 21, n. 53, p. 163-170, jan./mar. 2020.

5 O princípio da responsabilização e prestação de contas (art. 6º, X, LGPD) exige, nos precisos termos da norma, "a demonstração, pelo agente, da adoção de medidas eficazes e capazes de comprovar a observância e o cumprimento das normas de proteção de dados pessoais e, inclusive, da eficácia dessas medidas". Para análise da incidência desse princípio na estrutura de imputação de responsabilidade civil, cf. ACIOLY, Luis Henrique de Menezes; COSTA, Jéssica Hind Ribeiro. O regime de responsabilidade civil na LGPD e a cláusula geral de imputação objetiva: o diálogo de fontes como padrão interpretativo. REJUR – Revista Jurídica da UFERSA, Mossoró, v. 8, n. 15, jan./jun. 2024, p. 89-116.

6 A extensão da responsabilidade do controlador por danos decorrentes do tratamento de dados, ainda que derivados de condutas de terceiros inseridos na cadeia operacional, é desenvolvida em SCHREIBER, Anderson. Responsabilidade Civil na Lei Geral de Proteção de Dados. In: DONEDA, D.; SARLET, I. W.; MENDES, L. S.; RODRIGUES JÚNIOR, O. L. (org.). Tratado de Proteção de Dados Pessoais. Rio de Janeiro: Forense, 2021, p. 330-349, especialmente p. 343.

7 A discussão sobre compliance de proteção de dados como programa substantivo de governança, e não mero repositório de políticas formais, encontra ancoragem no plano do registro imobiliário em: ACIOLY, Luis Henrique de Menezes; MONTEIRO NETO, João Araújo. A publicidade registral imobiliária e a técnica de registrabilidade por extratos eletrônicos: contributos para a proteção de dados pessoais no registro de imóveis. Revista de Direito Imobiliário, São Paulo: Ed. RT, vol. 99, ano 48, p. 87-126, jul./dez. 2025.

8 Sobre o papel dos instrumentos de avaliação de impacto como mecanismos de governança preventiva de sistemas de IA, abordagem que orienta a camada de gestão de riscos aqui referida, cf. ACIOLY, Luis Henrique de Menezes; MENDES, Isabelle Brito Bezerra; MONTEIRO NETO, João Araújo. As avaliações de impacto como instrumentos de inteligibilidade algorítmica e garantia de direitos fundamentais na regulação de inteligência artificial. Diké, Ilhéus: UESC, v. 22, n. 24, p. 225-251, jul./dez. 2023.

9 Sobre a noção de Privacy by Design como postura proativa e não reativa de conformidade, que implica a incorporação de mecanismos de proteção desde a concepção dos processos, cf. CAVOUKIAN, Ann. Privacy by design: the 7 foundational principles. Information and Privacy Commissioner of Ontario, Canada, v. 5, p. 40, 2009. A ausência de controles prévios sobre canais não homologados representa, em termos práticos, o descumprimento do vetor de segurança previsto no art. 6º, VII, da LGPD.

Luís Henrique Acioly

Luís Henrique Acioly

Sócio e Coordenador da Área de Tecnologia e Governança do Chezzi Advogados, pós-graduando em Direito Digital pelo ITS-Rio e CEPED-UERJ.

AUTORES MIGALHAS

Busque pelo nome ou parte do nome do autor para encontrar publicações no Portal Migalhas.

Busca