MIGALHAS DE PESO

  1. Home >
  2. De Peso >
  3. GPT-4: Quando a tecnologia exige limites éticos e regulação

GPT-4: Quando a tecnologia exige limites éticos e regulação

O artigo analisa os riscos éticos do GPT-4, defendendo regulação urgente da IA para evitar desigualdades, reforçar direitos e proteger a sociedade de impactos irreversíveis.

quinta-feira, 12 de junho de 2025

Atualizado em 13 de junho de 2025 08:55

O avanço acelerado das tecnologias de IA - Inteligência Artificial, especialmente dos modelos de linguagem como o GPT-4, evidencia uma inflexão civilizatória de consequências ainda incalculáveis. Não se trata apenas de um salto técnico: o que está em jogo é a reconfiguração dos regimes epistêmicos, éticos e ontológicos que estruturam a vida social. O impacto desses sistemas transborda os domínios da engenharia computacional, alcançando a ética, o direito, a filosofia e, sobretudo, o campo dos direitos humanos.

Sam Altman, CEO da OpenAI, declarou ter "um pouco de medo" de que modelos como o GPT-4 sejam empregados para "desinformação em larga escala ou ataques cibernéticos". Essa confissão é reveladora: ela desnuda a inquietação interna dos próprios desenvolvedores diante da assimetria entre o poder algorítmico e os instrumentos normativos disponíveis para regulação. Em março de 2023, mais de 1.300 especialistas, incluindo Elon Musk e Steve Wozniak, subscreveram uma carta aberta solicitando a suspensão temporária dos experimentos com IA avançada, sob a alegação de que "nem mesmo seus criadores podem entender, prever ou controlar de forma confiável" os sistemas que desenvolvem.

O documento advertia que, ao atingirem níveis de generalidade e adaptabilidade comparáveis à inteligência humana, tais sistemas poderiam dar origem a cenários de disrupção irreversível, com efeitos exponenciais e transversais. A ausência de mecanismos robustos de governança global para a IA, nesse contexto, equivale a deixar o futuro coletivo à mercê de dinâmicas privadas de mercado. Como assinala Nick Bostrom (2014), o risco existencial associado à superinteligência algorítmica não está apenas na má intenção, mas na ausência de alinhamento valorativo entre os objetivos humanos e os parâmetros operacionais da máquina.

A carta, assinada por mais de 1.300 renomados especialistas e líderes do Vale do Silício e do meio acadêmico, incluindo Elon Musk, Steve Wozniak e Yuval Noah Harari, expressa preocupações profundas com a velocidade e os riscos inerentes ao desenvolvimento de sistemas de IA avançada, como o GPT-4. O documento alerta que, ao atingirem níveis de inteligência comparáveis aos humanos, esses modelos podem representar ameaças significativas para a humanidade, dado seu potencial de gerar transformações irreversíveis e de larga escala. Segundo os signatários, a ausência de um planejamento e de uma governança adequados para o avanço dessas tecnologias expõe todos a mudanças sem precedentes na história da vida na Terra, com consequências que podem ser irreversíveis.

Em resposta a essas preocupações, os autores da carta propuseram, em março de 2023, uma moratória de seis meses no desenvolvimento de IAs de última geração, com o intuito de criar um espaço de reflexão ética e social sobre os impactos dessa expansão acelerada. No entanto, a maioria dos laboratórios optou por seguir adiante, justificando suas ações pelo compromisso com a inovação e a competitividade. Essa decisão provocou intensos questionamentos sobre o papel da IA em decisões que afetam diretamente indivíduos e a estrutura social, ressaltando a necessidade urgente de uma regulação ética e responsável para equilibrar o progresso tecnológico com a preservação dos valores humanos.

A potência do GPT-4 reside não apenas em sua arquitetura, mas em como ele processa e projeta informações, influenciando percepções e valores éticos. Este utiliza transformadores, uma arquitetura que permite processar e gerar linguagem de forma natural e que, com treinamento em grandes volumes de dados, identifica padrões, produzindo respostas que simulam interações humanas.

Embora os avanços da IA sejam inquestionáveis, esses sistemas são alimentados por dados frequentemente permeados de vieses históricos, capazes de replicar preconceitos estruturais. Em áreas onde decisões automatizadas influenciam diretamente a vida das pessoas, isso se torna crítico, pois há o risco de reforçar discriminações passadas e impactar negativamente grupos minoritários. Assim, um dos maiores perigos desses modelos é operar sem compreensão de justiça ou equidade e perpetuar injustiças e endossar vieses inadvertidamente.

Esse cenário destaca a urgente necessidade de responsabilidade ética por parte de desenvolvedores e reguladores, uma vez que o uso de algoritmos em decisões automatizadas pode perpetuar injustiças sob o pretexto de eficiência, permitindo que distorções históricas se consolidem de forma camuflada.

A IA deve ser fundamentada em princípios de transparência e equidade, com monitoramento constante dos dados utilizados em seu treinamento para assegurar conformidade com critérios de justiça e inclusão. A clareza nas decisões automatizadas requer auditoria e compreensão por parte de seres humanos responsáveis, permitindo a identificação e correção de vieses. Esse acompanhamento deve ser rigoroso e avançar no mesmo ritmo dos progressos tecnológicos.

O progresso ético da IA exige regulamentação responsável. Modelos de última geração como o GPT-4 têm o poder de transformar a sociedade, mas essa mudança deve ser orientada por valores que assegurem benefícios coletivos, evitando sua concentração em elites ou corporações.

Uma governança responsável permitirá equilibrar ética e inovação, garantindo que o potencial da IA se concretize sem comprometer direitos humanos. Para isso, desenvolvedores, reguladores, legisladores e sociedade civil devem unir esforços para estabelecer diretrizes que promovam inclusão e justiça. O avanço dos sistemas de IA exige um compromisso rigoroso com a responsabilidade social e a equidade. Somente com uma estrutura sólida será possível moldar uma IA que atue como verdadeiro vetor de inclusão e progresso, em vez de perpetuar desigualdades.

________

ALTMAN, Sam. OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: "I think people should be a little bit scared of this". ABC News, 16 mar. 2023. Disponível em: https://www.abcnews.go.com/Technology/openai-ceo-sam-altman-ai-reshape-society-acknowledges/story?id=97897122. Acesso em: 9 jun. 2025.

BOSTROM, Nick. Superintelligence: paths, dangers, strategies. Oxford: Oxford University Press, 2014.

CARLOTO, Selma; DE LUCCA, Newton. GPT-4: desafios éticos e urgência de uma regulação. Estadão, São Paulo, 9 dez. 2024. Disponível em: https://www.estadao.com.br/opiniao/espaco-aberto/gpt-4-desafios-eticos-e-urgencia-de-uma-regulacao/. Acesso em: 9 jun. 2025.

CARLOTO, Selma. Discriminação algorítmica em processos seletivos eletrônicos. São Paulo: Editora Mizuno, 2023.

FUTURE OF LIFE INSTITUTE. Pause Giant AI Experiments: An Open Letter. Mar. 2023. Disponível em:  https://80000horas.com.br/pause-os-experimentos-de-ia-gigantes-uma-carta-aberta-do-future-of-life-institute/ Acesso em: 9 jun. 2025.

TAFAREL, Jefferson. Carta contra AI: Elon Musk e especialistas pedem pausa no desenvolvimento. Showmetech, 30 mar. 2023. Disponível em: https://www.showmetech.com.br/carta-contra-ai-elon-musk-especialistas-pausa/. Acesso em: 9 jun. 2025.

Selma Carloto

Selma Carloto

Professora autora de Proteção de Dados, LGPD e Compliance Trabalhista na FGV. Pós-doutora em Direito, UFRGS. Doutora em Engenharia da Informação, IA, UFABC. Mestre em Direito, USP e Doutorado UBA.

Newton de Lucca

Newton de Lucca

Professor Titular da Faculdade de Direito da USP. Desembargador Federal, presidente do Tribunal Regional Federal da 3ª Região (biênio 2012/2014). Membro da Academia Paulista de Direito. Membro da Academia Paulista de Letras Jurídicas. Membro da Academia Paulista dos Magistrados. Vice-presidente do Instituto Avançado de Proteção de Dados.

AUTORES MIGALHAS

Busque pelo nome ou parte do nome do autor para encontrar publicações no Portal Migalhas.

Busca