MIGALHAS DE PESO

  1. Home >
  2. De Peso >
  3. Entre a negação e o exagero: o perigoso 8 ou 80 da IA

Entre a negação e o exagero: o perigoso 8 ou 80 da IA

Uma análise sobre a polarização no uso da inteligência artificial, explorando a negação silenciosa de quem já a utiliza no cotidiano e o uso excessivo de quem a adota sem critérios claros.

terça-feira, 3 de fevereiro de 2026

Atualizado às 10:51

Vivemos um momento curioso — e, por vezes, preocupante — na relação da sociedade com a inteligência artificial. Ao observar o comportamento de profissionais, empresas e usuários em geral, torna-se cada vez mais evidente um cenário polarizado, quase binário: ou se rejeita completamente a IA, ou se a utiliza de maneira desenfreada, acrítica e, muitas vezes, equivocada. É o famoso "8 ou 80".

De um lado, estão aqueles que afirmam, com certa convicção, que não usam inteligência artificial. Rejeitam ferramentas, discursos e até debates sobre o tema, como se a IA fosse algo distante, opcional ou restrito a laboratórios de tecnologia avançada.

O paradoxo é evidente: essas mesmas pessoas desbloqueiam o celular com reconhecimento facial, recebem sugestões personalizadas em redes sociais, utilizam corretores automáticos de texto, mapas inteligentes, assistentes virtuais e filtros de segurança — tudo isso movido por IA.

A recusa, portanto, não é real. É simbólica. Trata-se menos de não usar e mais de não perceber que já se usa.

No extremo oposto, encontramos aqueles que abraçam a inteligência artificial com entusiasmo quase irrestrito. Utilizam ferramentas de IA para tudo, delegam decisões críticas a sistemas automatizados, reproduzem conteúdos sem validação e, em alguns casos, acreditam estar plenamente respaldados por regulamentações que mal conhecem.

Há quem confunda disponibilidade tecnológica com autorização legal; inovação com ausência de responsabilidade.

Esse uso desenfreado carrega riscos sérios: violação de dados, problemas éticos, falhas jurídicas, perda de autoria, dependência cognitiva e decisões automatizadas sem supervisão humana adequada.

Em muitos casos, esse uso excessivo vem acompanhado de uma percepção superficial ou incompleta sobre regulamentação. É comum uma confiança tácita de que o simples acesso à ferramenta legitima seu uso. O problema é que os marcos regulatórios ainda são parciais, em evolução e altamente contextuais, exigindo interpretação jurídica, responsabilidade ética e supervisão humana contínua — elementos que não podem ser terceirizados à tecnologia.

O ponto central é que nenhum dos extremos é saudável. Negar a IA não impede seu avanço, tampouco protege o usuário de seus impactos. Usá-la sem critérios, por outro lado, não é sinal de modernidade, mas de imprudência.

A maturidade digital está justamente no meio do caminho: no uso consciente, informado, estratégico e responsável da inteligência artificial.

Isso exige letramento em IA. Compreender onde ela está presente, como funciona, quais são seus limites, quais dados utiliza, quais decisões pode ou não automatizar e quais responsabilidades permanecem, inevitavelmente, humanas. A tecnologia não elimina o dever ético, jurídico ou crítico — ela o amplia.

Esse letramento não é técnico no sentido estrito, nem restrito a programadores ou especialistas. Trata-se de uma competência transversal, que envolve pensamento crítico, compreensão de contexto, noções básicas de funcionamento algorítmico e, sobretudo, consciência sobre impactos.

Saber usar IA não é apenas saber "extrair respostas", mas entender as consequências dessas respostas no mundo real, seja na comunicação, nos negócios, na educação ou na tomada de decisões estratégicas.

Ignorar essa necessidade empurra o debate novamente para os extremos: ou a rejeição baseada no medo, ou a adesão baseada no deslumbramento. Nenhuma das duas prepara indivíduos ou organizações para um futuro que já chegou.

A inteligência artificial não pede fé cega nem resistência obstinada; ela exige maturidade intelectual. E maturidade, nesse contexto, significa assumir que a tecnologia é uma ferramenta poderosa - mas que continua subordinada a valores humanos, escolhas conscientes e responsabilidade contínua.

Mais do que escolher entre o "sim" ou o "não" à inteligência artificial, o desafio contemporâneo é aprender a dizer "como", "quando" e "para quê". Afinal, a IA já faz parte do cotidiano. A diferença real está entre ser um usuário consciente ou apenas mais um conduzido por sistemas que não compreende.

Pamela Andressa de Matos C. M. Marques

VIP Pamela Andressa de Matos C. M. Marques

Advogada. MBA em IA-Exame/Saint Paul. Especialista em IA com certificação IA Generativa-MIT. Presidente Comissão IA OAB/AC. Membra Comissão Nacional IA CFOAB. Membra Comissões IA OAB/SP e OAB/DF.

AUTORES MIGALHAS

Busque pelo nome ou parte do nome do autor para encontrar publicações no Portal Migalhas.

Busca