Inteligência artificial e reconfiguração das profissões
sexta-feira, 20 de março de 2026
Atualizado em 19 de março de 2026 08:09
A expansão contemporânea da inteligência artificial, especialmente com a difusão de modelos de linguagem de larga escala, tem sido frequentemente descrita sob retórica de ruptura. Contudo, a evidência histórica e econômica sugere que a transformação em curso não configura descontinuidade institucional abrupta, mas processo de reestruturação progressiva da organização do trabalho. Nesse sentido, a analogia pertinente é com a revolução industrial, não como recurso metafórico, mas como categoria analítica voltada à compreensão de mudanças estruturais no conteúdo das tarefas produtivas.
A revolução industrial promoveu a mecanização de atividades físicas repetitivas, elevando a produtividade e deslocando ocupações artesanais intermediárias. Não houve supressão do trabalho humano em termos agregados, mas reconfiguração do conteúdo das funções exercidas. De modo semelhante, a literatura contemporânea em economia do trabalho demonstra que transformações tecnológicas alteram a estrutura das tarefas desempenhadas nas ocupações. Os economistas Acemoglu e Autor (2011) sustentam que a mudança tecnológica reorganiza a demanda por habilidades ao modificar a composição interna das tarefas, produzindo efeitos assimétricos ao longo da distribuição de qualificação.
Não são as profissões, enquanto categorias abstratas, que desaparecem, mas determinadas tarefas que as compõem. Cada ocupação envolve um conjunto heterogêneo de atividades: algumas rotineiras e passíveis de padronização; outras dependentes de julgamento contextual, interação social complexa ou resolução de problemas não estruturados. Tecnologias digitais tendem a substituir tarefas repetitivas e previsíveis, ao passo que complementam - e por vezes valorizam - atividades que exigem análise contextual e decisão sob incerteza. O efeito é assimétrico porque não incide uniformemente sobre todos os níveis de qualificação: comprime funções intermediárias baseadas em rotinas estruturadas e amplia a demanda por competências especializadas e por tarefas não rotinizáveis.
A denominada polarização ocupacional decorre precisamente dessa dinâmica: expansão relativa de ocupações de alta qualificação e de atividades pouco suscetíveis à automação, concomitantemente à contração de funções intermediárias baseadas em repetição padronizada. Em termos estruturais, observa-se esvaziamento relativo do “meio” da distribuição ocupacional.
A pesquisa conduzida por Levy e Murnane (2003) demonstrou empiricamente que tecnologias computacionais substituem tarefas rotineiras - tanto manuais quanto cognitivas - enquanto complementam atividades de resolução de problemas e comunicação complexa. Posteriormente, David Autor (2015) argumentou que a automação historicamente não elimina o trabalho em termos agregados, mas redefine seu conteúdo. Na manufatura, por exemplo, a introdução de máquinas automatizadas reduziu a necessidade de operadores dedicados a tarefas repetitivas, ao mesmo tempo em que elevou a demanda por engenheiros, programadores e técnicos especializados. No campo jurídico, sistemas de inteligência artificial podem automatizar triagem documental e produção de minutas padronizadas, mas não substituem atividades que envolvem interpretação normativa complexa, estratégia processual ou ponderação de consequências jurídicas.
A inteligência artificial generativa intensifica esse movimento ao alcançar tarefas cognitivas estruturadas, como redação técnica padronizada e consolidação de dados. Evidências empíricas recentes indicam que sistemas baseados em modelos de linguagem aumentam produtividade em atividades previsíveis e estruturadas (BRYNJOLFSSON; LI; RAYMOND, 2023), embora seus efeitos variem conforme o nível de experiência do trabalhador. Tais sistemas apresentam limitações em contextos que exigem responsabilidade normativa, interpretação ambígua ou decisão prudencial porque operam a partir de inferência estatística sobre padrões textuais previamente observados, e não a partir de compreensão semântica ou internalização de valores jurídicos.
Em situações que envolvem conflito de princípios, ponderação de direitos fundamentais ou escolha entre alternativas igualmente plausíveis sob incerteza, a decisão não depende apenas de coerência linguística, mas de juízo normativo imputável a um agente. Modelos de linguagem podem simular argumentação consistente, mas não assumem responsabilidade institucional pelo resultado decisório nem integram critérios de legitimidade próprios da deliberação jurídica.
Essas limitações decorrem da própria arquitetura probabilística desses modelos, que operam por correlação estatística de padrões textuais e não por agência normativa. Em situações que envolvem conflito de princípios ou avaliação prudencial de consequências, o sistema pode produzir respostas plausíveis, mas não assume responsabilidade pela decisão. A distinção, portanto, é não apenas técnica, mas institucional: sistemas automatizados não são sujeitos de imputação jurídica. A consequência econômica observável não é a extinção generalizada de profissões, mas a reorganização das competências valorizadas.
Nesse cenário, a polarização manifesta-se em três dimensões complementares. Em primeiro lugar, amplia-se a demanda por competências cognitivas complexas, sobretudo em atividades estratégicas, regulatórias e de governança tecnológica. A incorporação de sistemas inteligentes nas organizações exige supervisão humana qualificada e mecanismos de avaliação de risco, como reconhecido pelo EU Artificial Intelligence Act, que adota abordagem regulatória baseada em níveis de risco e impõe obrigações proporcionais aos sistemas classificados como de alto risco.
Em segundo lugar, preservam-se e, em certos casos, valorizam-se atividades manuais altamente especializadas exercidas em ambientes variáveis e de difícil automação. A evidência empírica indica que tarefas não rotinizáveis - inclusive manuais - são menos suscetíveis à substituição tecnológica (AUTOR; LEVY; MURNANE, 2003).
Em terceiro lugar, observa-se compressão de funções intermediárias centradas em rotinas cognitivas padronizáveis. Parte significativa das atividades administrativas tradicionais torna-se automatizável. Isso não implica desaparecimento da Administração como campo disciplinar, mas sua transformação: da execução operacional repetitiva para funções de coordenação estratégica, análise e tomada de decisão orientada por dados. Não por acaso, nos últimos anos, têm sido amplamente noticiadas reestruturações organizacionais em setores intensivos em processamento informacional, ao mesmo tempo em que cresce a incorporação de ferramentas baseadas em inteligência artificial nessas mesmas áreas. Em muitos casos, tais ferramentas passaram a assumir tarefas relacionadas à produção textual padronizada, suporte informacional e consolidação de dados, contribuindo para a redefinição de funções internas.
No setor jurídico corporativo, por exemplo, reportagem recente da Bloomberg Law destaca que grandes escritórios vêm ajustando suas estratégias de incorporação da inteligência artificial generativa, reconhecendo que, neste estágio de desenvolvimento, as aplicações tendem a ampliar eficiência em atividades de apoio e back-office, sem substituir o núcleo interpretativo da prática jurídica (STROM, 2024). Esse tipo de ajuste de percepção ilustra que os efeitos observados decorrem da substituição de tarefas rotinizáveis e da reorganização interna das funções, e não de uma suposta extinção generalizada das profissões.
A analogia com a revolução industrial sustenta-se, portanto, na dimensão organizacional e produtiva. Assim como a mecanização substituiu força física repetitiva, a inteligência artificial automatiza rotinas cognitivas estruturadas. Em ambos os casos, a tecnologia eleva produtividade e redefine a hierarquia das habilidades.
Do ponto de vista normativo, a expansão da inteligência artificial reforça a centralidade das competências interpretativas humanas. Como argumenta Floridi (2013), a consolidação da infosfera altera as condições de ação e responsabilidade moral. Sistemas automatizados podem auxiliar decisões, mas não assumem responsabilidade jurídica por suas consequências. A supervisão humana permanece elemento estruturante da legitimidade decisória.
No debate público, a inteligência artificial generativa é frequentemente descrita sob narrativas que oscilam entre a ficção científica e a personificação algorítmica - especialmente quando se fala em “agentes autônomos” baseados em modelos de linguagem. Embora avanços em robótica e sistemas ciberfísicos sejam reais e economicamente relevantes, tais desenvolvimentos pertencem a contextos tecnológicos distintos. A maior parte das aplicações atuais de IA generativa opera como ferramenta de apoio à decisão, e não como substituto institucionalmente autônomo da agência humana.
Em síntese, a transformação associada à inteligência artificial não representa ruptura civilizatória, mas processo de reestruturação produtiva inserido na trajetória histórica das mudanças tecnológicas. Observa-se realocação econômica e redistribuição de valor entre tarefas, ocupações e níveis de qualificação. Parte significativa do deslocamento ocorre no interior das próprias ocupações, com substituição de rotinas automatizáveis e valorização de competências decisórias complexas. A dinâmica predominante é estrutural e distributiva, ainda que seus efeitos sociais e institucionais possam ser intensos.
_______
Referências
RYNJOLFSSON, Erik; LI, Danielle; RAYMOND, Lindsey R. Generative AI at work. Cambridge: National Bureau of Economic Research, 2023. (NBER Working Paper, n. 31161).
AUTOR, David H. Why are there still so many jobs? The history and future of workplace automation. Journal of Economic Perspectives, Nashville, v. 29, n. 3, p. 3–30, summer 2015.
AUTOR, David H.; LEVY, Frank; MURNANE, Richard J. The skill content of recent technological change: an empirical exploration. The Quarterly Journal of Economics, Cambridge, v. 118, n. 4, p. 1279–1333, nov. 2003.
ACEMOGLU, Daron; AUTOR, David. Skills, tasks and technologies: implications for employment and earnings. In: ASHENFELTER, Orley; CARD, David (org.). Handbook of Labor Economics. Amsterdam: Elsevier, 2011. v. 4B, p. 1043–1171.
STROM, Roy. Big Law Is Questioning the ‘Magical Thinking’ of AI as Savior. Bloomberg Law, 8 Aug. 2024. Disponível em: https://news.bloomberglaw.com/business-and-practice/big-law-is-questioning-the-magical-thinking-of-ai-as-savior Acesso em: 18/02/2026.

