Migalhas de Peso

IA na segurança pública: Entre a eficácia operacional e o novo paradigma regulatório

Programas de vigilância em SP enfrentam novo marco da IA, que condiciona reconhecimento facial a governança, impacto algorítmico e direitos fundamentais constitucionais.

18/12/2025
Publicidade
Expandir publicidade

Em São Paulo, a utilização de tecnologias de ponta na área de segurança pública avançou de forma excepcional, tendo como expoentes mais conhecidos dois programas de vigilância em larga escala: o Smart Sampa, no âmbito municipal, e o Muralha Paulista, na esfera estadual. Ambos são apresentados como sucessos operacionais, com milhares de capturas, mas sua implementação ocorreu em um vácuo regulatório que está prestes a ser preenchido.

Uma mudança de paradigma legal, representada pelo PL 2.338/23 (o Marco Regulatório da IA no Brasil), está a caminho e promete redesenhar a ambiência legal, gerando um possível atrito entre a eficácia alegada dos programas e os novos (e rigorosos) deveres de conformidade.

O presente artigo tem por finalidade trazer para reflexão essas possíveis implicações que precisam ser objeto de discussão, não só dos atores do setor jurídico ou governamentais, mas da sociedade como um todo, tendo em vista que segurança pública é apontada como sendo um dos temas de maior preocupação da sociedade atualmente.

1. Contextualização: Os programas de vigilância em operação

O Smart Sampa é um programa da capital paulista que opera como uma das maiores redes de vigilância da América Latina, integrando mais de 31 mil câmeras. Sua atuação é focada no monitoramento inteligente através de RF - Reconhecimento Facial e LPR - Leitura Automática de Placas. Seus objetivos declarados são: identificar foragidos da Justiça, localizar pessoas desaparecidas e identificar veículos roubados ou furtados. Embora possua um Conselho de Gestão (CGT-SMART SAMPA), sua implementação foi alvo de críticas pela ausência de um debate público aprofundado sobre os riscos de vigilância em massa e vieses algorítmicos.

Já o Muralha Paulista, programa do Governo do Estado de São Paulo, foi formalizado pelo decreto 68.828/24 e integra mais de 38 mil câmeras (públicas e privadas). Seu objetivo estratégico é “restringir a mobilidade criminal”, utilizando RF e LPR para aumentar a probabilidade de prisões e localizar pessoas desaparecidas. A fundamentação legal do programa invoca a proteção de dados (LGPD), mas sua operação, assim como a do Smart Sampa, baseia-se em uma lógica de eficácia tecnológica que precede uma regulação federal específica sobre os riscos da IA.

2. O PL 2.338/23 e os riscos da IA

Em relação ao tema da segurança pública e dos dois programas citados, o ponto central para atenção e reflexão não é nem mesmo a tecnologia em si, mas sua classificação legal. O PL 2.338/23 é taxativo em seu Art. 13, IV, ao classificar o uso de “sistemas de identificação biométrica à distância, em tempo real e em espaços acessíveis ao público” (exatamente o que o RF faz) como de “Risco Excessivo”, o que, em regra, veda seu uso.

Isso significa a proibição total e o fim dos programas? Não exatamente.

O próprio Art. 13 abre exceções que são destinadas justamente para o setor de segurança pública, permitindo o uso da tecnologia para fins específicos, como a recaptura de foragidos e cumprimento de mandados (inciso ‘d’), a busca de vítimas e desaparecidos (inciso ‘b’) ou o flagrante delito de crimes graves (inciso ‘c’).

Essas exceções estão em linha com as justificativas centrais do Smart Sampa e do Muralha Paulista. Desse modo, o verdadeiro debate, portanto, não é se eles poderão continuar existindo, mas COMO eles poderão operar.

3. As novas obrigações: Da eficácia para a conformidade

A era da implementação “em cheque-branco”, baseada apenas em estatísticas de capturas, termina. O PL 2.338 impõe um nível de governança bem rígido para o poder público, especialmente em seus artigos 23 e 25. Mesmo que o uso se enquadre nas exceções do Art. 13, dos gestores públicos (aplicadores de IA) passarão a se exigir:

AIA - Avaliação de Impacto Algorítmico Obrigatória (Art. 25 e Art. 23, § 1º) Antes de implementar ou continuar usando o sistema, o poder público terá que realizar e publicar uma AIA. Esta avaliação, exigida para sistemas de alto risco e biométricos, não é uma formalidade: ela força a análise prévia dos riscos aos direitos fundamentais e exige o detalhamento das medidas de mitigação.

O Fim da “Caixa-Preta” e o Viés Algorítmico (Art. 18) A simples alegação de “assertividade de 99,5%” (como no caso do Smart Sampa) não será mais suficiente. A administração terá que provar, de forma documentada (Art. 18, I, ‘b’ e ‘e’), que mitigou ativamente os riscos de vieses discriminatórios. Este é o ponto mais sensível, dado o histórico de dados no Brasil que apontam que mais de 90% das pessoas presas por RF são negras. A lei força o gestor a confrontar o viés do seu sistema.

A “Trava de Segurança”: Descontinuação Obrigatória (Art. 23, § 2º) Este é, talvez, o dispositivo mais disruptivo. A lei determina que, se os riscos identificados na AIA (como o viés racial) “não puderem ser eliminados ou mitigados substantivamente”, o sistema “deverá ser descontinuado”. Isso cria uma “trava de segurança” legal que subordina a eficácia tecnológica à proteção de direitos. O que poderá ser um potencial gerador de conflitos, posto que, os opositores ou críticos dos programas poderão se utilizar deste dispositivo para questionar, até mesmo judicialmente, sua continuidade.

Supervisão Humana e Direito à Explicação (Art. 23, II) A nova lei reforça a necessidade de revisão humana efetiva e o direito do cidadão a uma explicação clara sobre decisões automatizadas que gerem efeitos jurídicos relevantes – um alerta de RF que culmina em uma abordagem policial, mesmo sem prisão é um exemplo disso.

4. A decisão política: Sopesando eficácia e direitos fundamentais

O PL 2.338/23 força uma decisão política fundamental, que exigirá sopesar valores constitucionais. De um lado, o valor da segurança pública (Art. 144 da CF), onde o Estado tem o dever de ser eficaz na proteção do cidadão, e os resultados operacionais dos programas são um argumento poderoso.

De outro lado, o valor da dignidade da pessoa humana (Art. 1º, III da CF), o direito à privacidade e, principalmente, o princípio da não discriminação. O risco de viés algorítmico, se não eliminado ou mitigado, transforma o RF em uma ferramenta de potencial lesivo, ferindo o núcleo da isonomia.

A nova regulação não proíbe a busca por eficácia, mas estabelece que ela não pode mais ser alcançada ao custo de direitos fundamentais. A governança deixará de ser uma discricionariedade local e passará a responder a padrões federais, provavelmente coordenados pela ANPD.

A grande questão para os gestores públicos não é mais “qual tecnologia usar”, mas “nosso sistema de IA sobrevive a uma auditoria de impacto algorítmico e conformidade?”. É o Direito tentando regular as fronteiras da tecnologia.

Autor

Manoel Duarte Pinto Sócio de Trigueiro Fontes Advogados, desde 2011. Especialização em Direito Processual Civil pela Fundação Escola Superior de Advocacia do Ceará - FESAC e Universidade Estadual do Ceará - UECE.

Veja mais no portal
cadastre-se, comente, saiba mais

Artigos Mais Lidos