Apocalipse da IA: Riscos reais, alarmismo e responsabilidade regulatória
Geoffrey Hinton alerta para o apocalipse da IA. Mas até que ponto esses riscos são reais? Uma análise crítica para o meio jurídico, com base histórica e foco em regulação responsável.
sexta-feira, 18 de julho de 2025
Atualizado às 10:13
As inovações tecnológicas sempre despertaram inquietações. Com a IA - inteligência artificial, esse fenômeno atinge novo patamar, impulsionado por previsões catastróficas. Um dos principais agentes desse discurso hoje é Geoffrey Hinton, considerado o "padrinho da IA", que abandonou o Google em 2023 para se dedicar a alertar o mundo sobre os perigos existenciais dos sistemas inteligentes.
Em entrevistas recentes, Hinton defende que a IA pode desenvolver objetivos próprios e tomar o controle de seus criadores humano. Também recomenda a jovens que busquem profissões manuais, como a de encanador, pois seriam mais difíceis de serem automatizadas.
Mas será que tais previsões são tecnicamente fundamentadas? O que de fato está em jogo? E qual deve ser o papel do Direito nesse cenário?
O argumento da autoridade: Entre o respeito e o rigor
Geoffrey Hinton tem contribuições notáveis para o desenvolvimento das redes neurais e do aprendizado profundo. Foi coautor de trabalhos fundamentais na década de 1980 e co-recebeu o Prêmio Turing em 2018. Seu prestígio técnico é inegável, particularmente no campo da engenharia de software e ciência da computação.
Contudo, é necessário fazer uma distinção crucial: Hinton é uma autoridade científica em redes neurais, não em geopolítica, sociologia, ciência política ou economia do trabalho. Suas especulações sobre colapsos sociais, disputas militares ou destruição de mercados de trabalho não são amparadas por formação especializada nesses campos, nem por modelos interdisciplinares robustos.
Essa distinção é especialmente importante para o meio jurídico, que deve separar opiniões pessoais, por mais influentes que sejam, de evidências periciáveis e consistentes para fins regulatórios.
Histórico de alarmismos tecnológicos: O que não se cumpriu
A história da tecnologia é repleta de previsões apocalípticas que não se concretizaram:
- O "Bug do Milênio" (Y2K): Esperava-se um colapso digital global na virada para o ano 2000. Nenhum sistema crítico falhou gravemente.
- A automação total no século XX: Em meados dos anos 1960, previa-se o fim do emprego humano por robôs. O que ocorreu foi uma reconfiguração de funções, não sua extinção.
- A privacidade com a internet: Nos anos 90, previa-se o fim da privacidade pessoal. Hoje, temos leis como o GDPR europeu e a LGPD no Brasil, além de tecnologias de criptografia e compliance regulatório.
- A guerra nuclear total nos anos 80: Filmes como The Day After (1983) previam o fim da civilização. O colapso da União Soviética ocorreu sem guerra direta.
Esses casos demonstram como a percepção do risco tecnológico tende a ser distorcida por fatores emocionais, culturais e midiáticos, especialmente quando amplificada por figuras de renome fora de suas especialidades.
Os reais riscos da IA e os deveres do Direito
O campo jurídico deve, sim, estar atento aos riscos concretos e imediatos do uso de IA:
- Discriminação algorítmica: Decisões automatizadas em crédito, saúde ou justiça podem perpetuar vieses históricos.
- Desinformação em massa: Deepfakes e conteúdos sintéticos não marcados impactam eleições, segurança e confiança pública.
- Uso militar e autônomo de IA: Sistemas letais automatizados levantam debates sobre proporcionalidade, responsabilidade e jus in bello.
- Concentração de mercado: O poder de grandes plataformas pode agravar desigualdades e dificultar o controle democrático.
Diferente das especulações sobre controle total da IA, esses problemas já estão ocorrendo e exigem respostas jurídicas urgentes, via regulação, accountability e governança ética.
O papel do jurista: Da passividade ao protagonismo
Recomendar que jovens se tornem encanadores como solução à IA, como fez Hinton, é um gesto simbólico, mas vazio de políticas públicas. O papel do Direito não é resignar-se a previsões distópicas, mas formular normas capazes de moldar o desenvolvimento tecnológico em benefício da coletividade.
A inteligência artificial não é inevitavelmente boa nem má: ela é o espelho das intenções de quem a programa, regula e fiscaliza. Para isso, é essencial que o campo jurídico aprofunde sua compreensão técnica, participe do debate público e avance na formulação de regras que garantam segurança jurídica, justiça social e inovação responsável.
Conclusão
O discurso alarmista sobre a IA, ainda que carregado de autoridade científica, não pode substituir análise jurídica fundamentada, elaboração legislativa proporcional e prudência regulatória. O futuro não está dado, ele será construído pelas decisões que tomarmos agora, inclusive as decisões normativas.
Mais do que temer a IA, precisamos compreendê-la, regulá-la e moldá-la eticamente, com o Direito como protagonista.
_____________
EUBANKS, Virginia. Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. New York: St. Martin's Press, 2018.
FREY, Carl B.; OSBORNE, Michael A. The future of employment: how susceptible are jobs to computerisation? Oxford: Oxford Martin School, 2013. Disponível em: https://www.oxfordmartin.ox.ac.uk/downloads/academic/The_Future_of_Employment.pdf. Acesso em: 16 jul. 2025.
HINTON, Geoffrey. Entrevista concedida na Collision Conference, Toronto, 2023. Disponível em: https://startups.com.br/noticia/encanador-e-o-emprego-do-futuro-diz-padrinho-da-ia. Acesso em: 16 jul. 2025.
SCHARRE, Paul. Army of None: Autonomous Weapons and the Future of War. New York: W. W. Norton & Company, 2018.
SHARP, Jonathan. Y2K: What Really Happened. MIT Technology Review, 2000. Disponível em: https://www.technologyreview.com. Acesso em: 16 jul. 2025.
OUR CULTURE MAG. The Y2K Bug: What Really Happened and Why It Mattered. 8 fev. 2025. Disponível em: https://ourculturemag.com/2025/02/08/the-y2k-bug-what-really-happened-and-why-it-mattered. Acesso em: 17 jul. 2025.


