Especialistas, representantes do setor público e entidades da área de tecnologia discutiram na última sexta-feira, 14, em Porto Alegre, os rumos do PL 2.338/23, que cria o Marco Legal da Inteligência Artificial no Brasil.
O encontro técnico, realizado na Fundação do Ministério Público (FMP/RS) e convocado pela deputada federal Any Ortiz, reuniu a Secretaria da Transparência de Porto Alegre, o INPD - Instituto Nacional de Proteção de Dados e a ABES - Associação Brasileira das Empresas de Software.
O debate girou em torno do modelo de regulação que o Brasil deve adotar e de como equilibrar proteção de direitos fundamentais, segurança jurídica e estímulo à inovação.
Parte dos participantes demonstrou preocupação com a influência do marco regulatório europeu, o EU AI Act, considerado mais restritivo. Outros defenderam uma abordagem voltada à competitividade, semelhante à adotada pelo Japão.
Rodrigo Azevedo, coordenador da área de Direito Digital do Silveiro Advogados, afirmou que a amplitude da lista de sistemas classificados como de alto risco no PL pode gerar insegurança jurídica e elevar custos de conformidade. Segundo ele, o exemplo europeu já mostra que a regulação extensa pode produzir efeitos indesejados.
"Depois de um ano de vigência do EU AI Act, há a percepção de que a classificação ampla e os requisitos complexos podem ter ido além do necessário e restringido o desenvolvimento", declarou o advogado.
"O texto brasileiro ainda prevê remuneração obrigatória a autores por conteúdos utilizados no treinamento de IA, ponto que não está consolidado em nenhuma jurisdição. Assumir agora uma posição definitiva pode limitar o uso de conteúdos em português", completa.
Outro eixo da audiência tratou da disseminação de conteúdo sintético e dos riscos de desinformação em períodos eleitorais. Ana Paula Ávila, coordenadora da área de Compliance do Silveiro Advogados, defendeu que a aprovação do PL é necessária para operacionalizar regras já estabelecidas pelo TSE, que desde 2024 proíbe deepfakes em campanhas.
Para ela, a falta de padrões técnicos de rotulagem inviabiliza a fiscalização. "A lei detalha obrigações de rotulagem e identificadores, as chamadas credenciais de conteúdo. Elas permitem verificar a origem e integridade de vídeos e áudios em poucos segundos", afirmou.
Ávila sugeriu que o texto adote a rotulagem como regra geral, independentemente da classificação de risco dos sistemas, e que o termo "identificador" seja definido diretamente no projeto, sem aguardar regulamentação futura.
Para ela, provedores, plataformas e Poder Público devem compartilhar responsabilidades. "Em 2026, a diferença entre ter ou não credenciais padronizadas será medida em horas. Exigir transparência não é censura; é infraestrutura para a confiança pública", disse.
A reunião também contou com contribuições de Martha Leal, que apresentou um panorama do projeto; de Eduardo Paranhos, representante da ABES; do professor Juliano Madalena, que discutiu desafios regulatórios; e de Rafael Reis, presidente do INPD, que defendeu que a análise de risco deve considerar o uso da tecnologia, e não a tecnologia em si.
As sugestões serão encaminhadas para avaliação no Congresso Nacional.