MIGALHAS DE PESO

  1. Home >
  2. De Peso >
  3. Migalhas de peso >
  4. Autorregulação e inteligência artificial: O desafio da conformidade setorial no PL 2.338/23

Autorregulação e inteligência artificial: O desafio da conformidade setorial no PL 2.338/23

Modelo previsto no PL tem potencial, mas exige supervisão estatal, transparência e controle para evitar riscos e garantir direitos fundamentais.

quinta-feira, 19 de março de 2026

Atualizado em 18 de março de 2026 14:25

Introdução

A crescente incorporação de sistemas de inteligência artificial em atividades econômicas, administrativas e sociais tem intensificado o debate sobre modelos regulatórios capazes de conciliar inovação tecnológica, segurança jurídica e proteção de direitos fundamentais1. Diante da velocidade do avanço tecnológico e da complexidade técnica dos sistemas de IA, instrumentos tradicionais de regulação estatal têm sido frequentemente considerados insuficientes para responder, de forma ágil e especializada, aos riscos associados a essas tecnologias.

Nesse contexto, o PL 2.338/23, que institui o marco regulatório brasileiro da inteligência artificial, incorpora mecanismos de autorregulação como parte de uma estratégia regulatória mais ampla. A proposta reconhece o papel de códigos de conduta e iniciativas voluntárias na promoção de boas práticas, especialmente no âmbito de setores específicos da economia. Tal opção legislativa reflete uma tendência contemporânea de adoção de modelos híbridos de governança, nos quais Estado e atores privados compartilham responsabilidades regulatórias2.

O presente artigo tem como objetivo analisar os limites e o potencial da autorregulação prevista no PL 2.338/23, com especial atenção à possibilidade de atuação de associações setoriais como instrumentos de promoção de boas práticas em inteligência artificial. Parte-se da seguinte pergunta de pesquisa: em que medida a autorregulação exercida por associações é capaz de promover boas práticas em IA sem comprometer a efetividade da tutela estatal e a proteção de direitos fundamentais?

Sustenta-se, como tese central, que a autorregulação possui potencial relevante para a promoção de boas práticas em inteligência artificial, mas revela limites estruturais que impedem sua atuação eficaz de forma isolada, exigindo um desenho institucional que mitigue riscos de captura e garanta o accountability.

1. A autorregulação no PL 2.338/23

O PL 2.338/23 dedica a Seção II do Capítulo VI ao tratamento da autorregulação no contexto da inteligência artificial. O texto legislativo reconhece a possibilidade de adoção de códigos de conduta e outras iniciativas voluntárias como instrumentos destinados a orientar o desenvolvimento, a implementação e o uso responsável de sistemas de IA3. Trata-se de uma opção normativa que dialoga com experiências internacionais e com diretrizes de organismos multilaterais, como a OCDE - Organização para a Cooperação e Desenvolvimento Econômico.

A autorregulação é concebida, no projeto, como mecanismo complementar à regulação estatal, não como sua substituta. O PL preserva a centralidade do Estado na definição de parâmetros normativos mínimos, ao mesmo tempo em que admite a participação ativa do setor privado na concretização desses parâmetros por meio de práticas autorregulatórias. Essa concepção reflete uma compreensão pragmática da regulação tecnológica, que reconhece a assimetria informacional entre reguladores públicos e agentes econômicos altamente especializados.4

Entretanto, o texto legal não estabelece critérios detalhados sobre a forma de organização, os requisitos de governança ou os mecanismos de responsabilização das iniciativas autorregulatórias. Essa opção legislativa confere flexibilidade ao modelo, mas também suscita questionamentos quanto à sua efetividade prática e à capacidade de evitar distorções, como a adoção de padrões meramente simbólicos ou insuficientes para mitigar riscos relevantes.

2. O potencial da autorregulação exercida por associações setoriais

A atuação de associações setoriais desponta como um dos principais vetores de concretização da autorregulação em inteligência artificial. Essas entidades reúnem agentes econômicos que compartilham características técnicas, operacionais ou mercadológicas semelhantes, o que lhes permite desenvolver padrões específicos e adaptados às particularidades de cada setor.

Entre os principais potenciais da autorregulação associativa, destaca-se a capacidade de produzir normas técnicas mais ajustadas às especificidades de cada setor econômico do que aquelas usualmente elaboradas pelo legislador, o que favorece a efetividade regulatória e a adaptação dinâmica às transformações tecnológicas5. Além disso, a adesão voluntária a códigos de conduta pode estimular uma cultura de conformidade e responsabilidade, indo além do mero cumprimento formal da lei.

Outro aspecto relevante é a função de mediação exercida pelas associações entre o setor privado e o Estado. Ao consolidar posições técnicas e promover o diálogo institucional, essas entidades podem contribuir para a construção de consensos regulatórios e para a redução de conflitos interpretativos. Nesse sentido, a autorregulação associativa pode funcionar como instrumento de governança colaborativa, fortalecendo a legitimidade das decisões regulatórias.

Experiências internacionais, como os códigos de conduta previstos no Regulamento Europeu de Inteligência Artificial (AI Act), indicam que mecanismos autorregulatórios podem desempenhar papel relevante na promoção de padrões éticos e técnicos, desde que inseridos em uma arquitetura regulatória clara e supervisionada.6, 7

3. Limites e riscos da autorregulação no contexto da inteligência artificial

Apesar de seus potenciais, a autorregulação apresenta limites estruturais que não podem ser ignorados. Um dos principais riscos associados a esse modelo é a captura regulatória e opacidade dos processos decisórios, fenômenos nos quais interesses privados passam a influenciar de forma desproporcional a definição de padrões normativos, em detrimento do interesse público. No contexto da inteligência artificial, esse risco é agravado pela concentração econômica e pelo domínio tecnológico de grandes empresas globais.8

Outro limite relevante diz respeito à ausência de mecanismos robustos de enforcement. Códigos de conduta voluntários, quando não acompanhados de incentivos claros ou sanções efetivas, tendem a produzir efeitos limitados. A autorregulação pode, nesses casos, assumir caráter meramente simbólico, funcionando mais como estratégia reputacional do que como instrumento real de mitigação de riscos.9

Há ainda o problema da assimetria de poder entre os agentes envolvidos. Pequenas e médias empresas, startups e usuários finais frequentemente possuem menor capacidade de influenciar a elaboração de padrões autorregulatórios, o que pode resultar na adoção de práticas que favorecem grandes atores econômicos. Esse cenário compromete a função inclusiva e democrática que a regulação da inteligência artificial deve desempenhar.

Tais limitações evidenciam os desafios inerentes às formas de soft law desvinculadas de estruturas institucionais robustas de accountability10 e demonstram que a autorregulação, por si só, não é suficiente para assegurar a proteção de direitos fundamentais e a efetividade regulatória. Sua legitimidade depende da existência de mecanismos de supervisão estatal, transparência procedimental e responsabilização dos agentes envolvidos.

Considerações finais

A análise da autorregulação prevista no PL 2.338/23 evidencia que esse instrumento possui potencial significativo para a promoção de boas práticas em inteligência artificial, especialmente quando exercido por associações setoriais capazes de elaborar padrões técnicos especializados e adaptados às especificidades de cada setor. No entanto, esse potencial não se realiza de forma automática.

A autorregulação revela limites estruturais que impedem sua atuação eficaz de maneira isolada, notadamente os riscos de captura regulatória, a fragilidade de mecanismos de enforcement e as assimetrias de poder entre os agentes envolvidos. Por essa razão, sua legitimidade e efetividade dependem de uma integração consistente com a atuação estatal, por meio de supervisão, definição de parâmetros mínimos e mecanismos de accountability.

Nesse sentido, o aprimoramento do modelo proposto pelo PL 2.338/23 poderia incluir critérios mais claros para o reconhecimento de associações autorregulatórias, exigências de transparência na elaboração de códigos de conduta e instrumentos de monitoramento capazes de assegurar a conformidade com os objetivos constitucionais de proteção da pessoa humana. A autorregulação, quando inserida em uma arquitetura de governança híbrida e responsável, pode contribuir de forma relevante para o desenvolvimento ético e sustentável da inteligência artificial no Brasil.11

_______

Referências

ABBOTT, Kenneth W. et al. The concept of legalization. International Organization, Cambridge, v. 54, n. 3, p. 401–419, 2000.

AYRES, Ian; BRAITHWAITE, John. Responsive regulation: transcending the deregulation debate. Oxford: Oxford University Press, 1992.

BLACK, Julia. Decentring regulation: understanding the role of regulation and self-regulation in a post-regulatory world. Current Legal Problems, Oxford, v. 54, n. 1, p. 103–146, 2001.

BRASIL. Projeto de Lei nº 2.338, de 2023. Dispõe sobre o desenvolvimento, fomento, uso ético e responsável da inteligência artificial com base na centralidade da pessoa humana. Brasília: Congresso Nacional, 2025.

DONEDA, Danilo; MENDES, Laura Schertel. Privacidade, proteção de dados e defesa do consumidor. São Paulo: Revista dos Tribunais, 2019.

EUROPEAN COMMISSION. Ethics guidelines for trustworthy artificial intelligence. Brussels, 2019.

FLORIDI, Luciano. The ethics of artificial intelligence: principles, challenges, and opportunities. Oxford: Oxford University Press, 2023.

GUNNINGHAM, Neil; SINCLAIR, Darren. Smart regulation: designing environmental policy. Oxford: Oxford University Press, 1998.

ORGANISATION FOR ECONOMIC CO-OPERATION AND DEVELOPMENT (OECD). OECD principles on artificial intelligence. Paris, 2019.

PASQUALE, Frank. The black box society: the secret algorithms that control money and information. Cambridge: Harvard University Press, 2015.

SABEL, Charles F.; ZEITLIN, Jonathan. Learning from difference: the new architecture of experimentalist governance in the EU. European Law Journal, Oxford, v. 14, n. 3, p. 271–327, 2008.

ZUBOFF, Shoshana. The age of surveillance capitalism. New York: Public Affairs, 2019.

1 DONEDA, Danilo; MENDES, Laura Schertel. Privacidade, proteção de dados e defesa do consumidor. São Paulo: Revista dos Tribunais, 2019.

ORGANISATION FOR ECONOMIC CO-OPERATION AND DEVELOPMENT (OECD). OECD principles on artificial intelligence. Paris, 2019.

3 BRASIL. Projeto de Lei nº 2.338, de 2023. Dispõe sobre o desenvolvimento, fomento, uso ético e responsável da inteligência artificial com base na centralidade da pessoa humana. Brasília: Congresso Nacional, 2025.

4 O conceito de regulação descentrada, segundo Julia Black, reconhece que o conhecimento e a capacidade de controle estão dispersos na sociedade, e não concentrados unicamente no Estado. Ver: BLACK, Julia. Decentring regulation: understanding the role of regulation and self-regulation in a post-regulatory world. Current Legal Problems, Oxford, v. 54, n. 1, p. 103–146, 2001.

SABEL, Charles F.; ZEITLIN, Jonathan. Learning from difference: the new architecture of experimentalist governance in the EU. European Law Journal, Oxford, v. 14, n. 3, p. 271–327, 2008.

AYRES, Ian; BRAITHWAITE, John. Responsive regulation: transcending the deregulation debate. Oxford: Oxford University Press, 1992; GUNNINGHAM, Neil; SINCLAIR, Darren. Smart regulation: designing environmental policy. Oxford: Oxford University Press, 1998.

7 EUROPEAN COMMISSION. Ethics guidelines for trustworthy artificial intelligence. Brussels, 2019.

PASQUALE, Frank. The black box society: the secret algorithms that control money and information. Cambridge: Harvard University Press, 2015.

UBOFF, Shoshana. The age of surveillance capitalism. New York: PublicAffairs, 2019.

10 ABBOTT, Kenneth W. et al. The concept of legalization. International Organization, Cambridge, v. 54, n. 3, p. 401–419, 2000.

11 FLORIDI, Luciano. The ethics of artificial intelligence: principles, challenges, and opportunities. Oxford: Oxford University Press, 2023.

Graziela Fernandes de Mello Bonfim

Graziela Fernandes de Mello Bonfim

Gerente no escritório Capanema & Belmonte.

AUTORES MIGALHAS

Busque pelo nome ou parte do nome do autor para encontrar publicações no Portal Migalhas.

Busca