Humanidades e Novas Tecnologias

Fundamentos epistemológicos da proposta executiva de um ecossistema de IA de uma governança de IA multicamadas multistakeholder, inclusiva e democrática

O debate sobre IA e futuro não se resume a um dilema entre catastrofismo e tecnofilia. Trata-se de repensar as maneiras como imaginamos coletivamente o porvir.

6/6/2025

O debate sobre IA e futuro não se resume a um dilema entre catastrofismo e tecnofilia. Trata-se de repensar as maneiras como imaginamos coletivamente o porvir. A inteligência artificial, ao ampliar as capacidades humanas, nos desafia a construir novos contratos sociais, novas formas de pertencimento e novas linguagens para narrar a vida em comum. Para isso, é imperativo que a técnica seja subordinada à ética, que seja democratizada e inclusiva, e que abra espaço para o incalculável, com base na esperança, no sonho, na criação e na solidariedade. Como recorda Paul Ricoeur, a narrativa é uma maneira de reconfigurar o tempo vivido e projetar horizontes de sentido. Entre a utopia automatizada de Kai-Fu Lee e a crítica existencial de Byung-Chul Han, entre visões utópicas e distópicas, optamos pela terceira via possível, da crítica responsável e fundamentada em pesquisa científica. O futuro é agora e resta-nos a tarefa de imaginar — e construir — um futuro mais humano.

Outro ponto de suma importância é a temática da accountability relacionada com a transparência e responsabilização, como bem aponta o artigo “Algorithmic Accountability: Moving Beyond Audits” da lavra do AI Now Institute, afirmando a importância da pesquisa independente e da insuficiência da auditoria técnica, “in verbis”: “Por fim, essas propostas devem ser lidas no contexto de um ambiente cada vez mais precário para a pesquisa crítica sobre responsabilização tecnológica, no qual pressões econômicas deixam pesquisadores acadêmicos cada vez mais expostos à influência indevida de atores corporativos”. E continua: “Modos técnicos de avaliação há muito vêm sendo criticados por posicionarem de forma limitada o "viés" como uma falha dentro de um sistema algorítmico que pode ser corrigida e eliminada”.

Embora os apelos da sociedade civil por uma avaliação mais ampla, "sociotécnica", expandam o escopo de forma necessária, esses esforços não conseguiram dar o salto da teoria para a prática. Tais abordagens são propensas a referências vagas e mal especificadas, e tanto as auditorias técnicas quanto as sociotécnicas colocam o ônus primário da responsabilização algorítmica sobre aqueles com menos recursos. De modo geral, as auditorias correm o risco de consolidar o poder dentro da indústria de tecnologia e de desviar o foco de respostas estruturais mais profundas.

Visa-se, pois, refletir acerca do conceito de governança, e trazer uma proposta de conceito mais amplo, em uma chave interseccional, abrangendo diversas camadas, e trazendo requisitos essenciais de legitimidade e inclusão – participação multistakeholder. Iniciamos, pois, pelo que se entende por governança de IA e atuais propostas de observatórios públicos/propostas de governança de IA – visando preencher um dos gaps existentes, ir da teoria à prática concreta.

Veja mais no portal
cadastre-se, comente, saiba mais

Colunistas

Paola Cantarini é advogada, pós-graduada em Direito Constitucional, Direitos Humanos e Direito Internacional. Mestre e doutora em Direito pelo Programa de Estudos Pós-graduados em Direito da PUC/SP. Doutora em filosofia do Direito pela Universidade de Salento (Itália), pós-doutorado em Filosofia, Arte e Pensamento Crítico pela European Graduate School , Saas-Fee (Suíça), pós-doutorado no Centro de Estudos Sociais da Universidade de Coimbra (Portugal).

Willis Santiago Guerra professor doutor do Programa de Estudos Pós-Graduados em Direito da PUC/SP. Professor Titular da UNIRIO. Tem experiência na área de Direito e Filosofia, com ênfase em Filosofia do Direito e Direito Constitucional.