IA e a dissolução da culpa: O alibi tecnologico na guerra moderna
Artigo analisa como a inteligência artificial tem sido usada para diluir o dolo em ataques civis, atualizando o conceito de Lawfare. Um olhar crítico sobre a isenção de responsabilidade técnica.
quarta-feira, 15 de abril de 2026
Atualizado às 08:14
O debate contemporâneo sobre o uso de inteligência artificial nos campos de batalha costuma girar em torno da precisão técnica e das falhas algorítmicas. No entanto, essa lente pode estar ignorando uma camada muito mais profunda e estratégica da guerra moderna: o uso da tecnologia como álibi moral. Quando surge a notícia de que um hospital ou uma escola foi atingida em conflitos recentes no Oriente Médio, a reação imediata da opinião pública é questionar se a IA "errou" o alvo. Contudo, é fundamental considerar que o que chamamos de erro pode ser, na verdade, um acerto deliberado, mascarado por uma camada de isenção de responsabilidade. Afinal, ao delegar a escolha à máquina, o comandante consegue alegar a ausência de dolo, embora a intenção interna pudesse ser, desde o princípio, a destruição daquela área civil.
Essa tática não é exatamente nova; ela apenas trocou de ferramenta. Se recuarmos a 2001, o conceito de Lawfare, cunhado pelo Coronel Charles Dunlap, já preparava o terreno para essa ginástica narrativa. Na época, o argumento era que insurgentes em guerras assimétricas utilizavam o Direito Internacional Humanitário como uma "arma" contra potências tradicionais. A lógica vendida era a de que grupos armados posicionavam propositalmente seu aparato bélico em escolas e hospitais para criar escudos humanos, antecipando que qualquer ataque contra eles resultaria em condenação jurídica internacional. Assim, o Lawfare surgia para sugerir que forças regulares estariam sendo "vitimizadas" pelo uso estratégico do Direito por forças irregulares.
O que se observa, porém, é uma inversão perversa dessa premissa. Ao longo da história recente, bombardeios a centros civis foram seguidos por justificativas que culparam a estratégia do inimigo ou falhas de inteligência. Um exemplo emblemático ocorreu em 1999, quando a embaixada da China foi bombardeada em Belgrado durante a Guerra do Kosovo sob a justificativa de mapas desatualizados. O padrão é claro: O grande ato ilegal é cometido e a desculpa técnica ou jurídica é moldada posteriormente.
Agora, a Inteligência Artificial oferece o mote perfeito para o século XXI. Ao delegar a decisão de um alvo a um algoritmo, cria-se uma zona cinzenta de responsabilidade. Se uma escola é destruída, o Estado pode alegar que a máquina identificou um padrão de ameaça imperceptível ao olho humano ou que houve um "glitch" sistêmico. Assim, a IA deixa de ser apenas uma ferramenta de eficiência para se tornar um escudo retórico. O dolo do ato de guerra, a vontade política de destruir um ponto estratégico independentemente do custo humanitário, acaba diluído no código de programação.
No fim das contas, a justificativa continua vindo após o fato consumado, mas agora travestida de uma aura de infalibilidade técnica que dificulta a contestação. Se antes o culpado era o "escudo humano" do inimigo, hoje o culpado é o cálculo do processador. Em ambos os casos, a vítima permanece a mesma, enquanto o agressor mantém as mãos limpas, protegido por uma narrativa de modernidade e inevitabilidade tecnológica.


