Sábado, 7 de março de 2026
APOIE
Menu

No léxico técnico militar anglófono existe uma expressão chamada “fog of war”, que pode ser traduzida como “névoa da guerra”. Esse termo se refere à dimensão da incerteza na dinâmica da guerra, onde a informação é valiosa e o grau de variabilidade dos fatores oscila bruscamente, levando em consideração questões como dimensões táticas e tecnológicas, o próprio campo de batalha e a compreensão da posição, literal e metafórica, tanto de inimigos quanto de aliados. Sua aparição convencional está no texto militar de 1896 do Coronel Lonsdale Augustus Hale, do livro “The Fog of War”, mas remete fundamentalmente à construtos metafóricos de Carl von Clausewitz sobre o tema.

A questão da incerteza é fundamental nos temas militares, e os setores de inteligência são encarregados de reduzi-la, utilizando de todos os desenvolvimentos técnicos disponíveis, avançando a marcha tecnológica no fronte bélico sob o rufo de tambores no andamento de canhões. O ritmo da guerra, via de regra, dita o ritmo da tecnologia – mas o avesso também é verdadeiro. Tambores e canhões são, todavia, figuras longínquas de outros tempos.

Tudo que a grande mídia não mostra, do seu jeito.

Ícone Newsletter

Newsletter

Notícias internacionais, com análise crítica e independente. Sem filtros.
Ícone WhatsApp

Canal do WhatsApp

O mundo em movimento direto no seu celular. Informação pronta para compartilhar
Ícone YouTube

OM no YouTube

Opinião, contexto e coragem jornalística. Tudo no nosso canal. Sintonize em Opera Mundi

Com o atual processo acelerado de digitalização que reestrutura toda a temporalidade e dinâmica social no globo, com a proliferação de inteligências artificiais das mais variadas, com os mais distintos fins, não seria diferente também com a própria lógica militar, que passa por uma reorientação total, entrando em novos dilemas éticos e morais inéditos legados ao resto de humanidade contemporâneo. Essa relação não é nova, mas tem em sua história uma ligação umbilical, na medida em que desde o desenvolvimento das máquinas criptográficas anteriores à Primeira Guerra até os financiamentos da cibernética no final e após a Segunda Guerra, o interesse militar na automação, no controle e comunicação e nas inteligências artificiais não só esteve presente, como foi fundamental. 

O futuro das máquinas assassinas hoje não é simplesmente a imagem hollywoodiana de robôs fortemente armados, exterminadores do futuro no presente, mas também a organização abstrata de sistemas autônomos voltados para a aceleração dos procedimentos de guerra. (Foto: Spc. Joshua Edwards / U.S. Army Europe)

O futuro das máquinas assassinas hoje não é simplesmente a imagem hollywoodiana de robôs fortemente armados, exterminadores do futuro no presente, mas também a organização abstrata de sistemas autônomos voltados para a aceleração dos procedimentos de guerra.
(Foto: Spc. Joshua Edwards / U.S. Army Europe)

É curioso notar também como a incerteza foi questão central no desenvolvimento da cibernética, em especial para a teoria da informação desenvolvida por Claude Shannon – campo que, não à toa, logo despertou a atenção militar. A teoria da informação voltada para a redução da incerteza e a cibernética orientada para a comunicação e o controle de sistemas fechados logo desenvolveram-se em recursos militares voltados para dissipar a névoa de guerra, instrumentos de redução da incerteza também nos campos de batalha. 

Mais lidas

Contudo, o que se desenrola nos tempos atuais é algo sem precedentes. Se a bomba atômica foi um salto qualitativo inédito na “mais-valia relativa” do extermínio, agora o avanço se dá com o desenvolvimento e uso de sistemas voltados para a vigilância, busca e determinação de alvos. Apresentam-se nessa lista macabra o Projeto Lavender, The Gospel, Where’s Daddy?, Squad X e ATLAS, para citar alguns. Todos eles possuem algo em comum: o uso de IAs, especialmente o aprendizado de máquinas e aprendizado profundo [machine learning/deep learning], para rastreamento, detecção, identificação e execução de alvos militares – não apenas em tempos de guerra, mas também em tempos de paz (caso esses tempos ainda existam). Todos esses programas combinados formam uma verdadeira linha de montagem voltada para o extermínio em massa, com extração de dados para aprendizado profundo e treinamento de modelos em nuvem pelas Big Techs, como argumenta Sérgio Amadeu da Silveira em seu livro “As Big Techs e a Guerra Total” (Hedra, 2025, p. 88). 

Não é de se espantar que o grande laboratório e vitrine de tais tecnologias se encontre no eixo entre imperialismo e neocolonialismo contemporâneo: a relação EUA-Israel é central para compreendermos o desenvolvimento e a testagem aplicada dessas tecnologias voltadas ao uso militar, desenvolvimento que é marcado tanto por interesses coloniais sionistas, interesses econômicos das Big Tech e pela corrida estratégica de manutenção da soberania tecnológica imperialista. O desenvolvimento de mecanismos de vigilância digital que se utilizam de IAs em larga escala hoje atravessa diagonalmente toda tessitura das práticas sociais, tendo em vista que a divisão entre esfera civil e militar é mais uma das fronteiras que tende a ser fragmentada pelo processo de digitalização.

Essa fragmentação ocorre de muitas formas, mas é fundamental termos em mente que, ao contrário da dinâmica clássica no século XX, onde produção tecnológica militar tendia a ser inserida posteriormente na esfera civil pelo mercado, hoje essa relação é integrada e coextensiva. Ao interagirmos com tecnologias digitais proprietárias de grandes monopólios – ou seja, a esmagadora maioria das interfaces digitais utilizadas hoje, que são propriedade das Big Techs (Amazon, Google, Microsoft, Open AI ou Oracle) –, estamos constantemente integrando um sistema massivo de produção e expropriação de dados ligado ao treinamento em larga escala de algoritmos proprietários voltados ao aprendizado de máquinas. A própria infraestrutura da digitalização realmente existente integra a esfera civil e o mercado à dinâmica bélica-militar em tempo real. 

O genocídio palestino perpetrado por Israel é utilizado e exposto sanguinariamente como a “vanguarda” das tecnologias de extermínio e controle no contemporâneo, e sua aplicação é explicitamente voltada para a aceleração e maximização da cadeia produtiva genocida que visa reduzir o tempo necessário entre a localização, fixação e execução de alvos. O Projeto Lavender mencionado anteriormente é um caso exemplar: utilizando grande volume de dados processados por aprendizado profundo de máquinas, chama atenção as fontes exploradas para o input de informações: não apenas recursos da inteligência militar israelense, como interceptações, imagens de satélite, etc., mas também os dados de redes sociais. 

O jornalista Yuval Abraham apresentou evidências de como o uso das IAs para a seleção de alvos militares ampliou as baixas civis – ao contrário do que afirma ser a intenção no uso dessas tecnologias por demagogos israelenses e estadunidenses –, além de entrevistar oficiais da inteligência de Israel que atestaram a aceleração da aprovação de ataques a alvos humanos. Não é apenas a ampliação de baixas civis que está em jogo aqui, mas o aumento da letalidade civil como estratégia de dominação e controle. Trata-se literalmente de um genocídio acelerado por inteligências artificiais. 

Um outro problema, menos considerado e de fundamental importância, também se apresenta. A distribuição de agência moral quando nos confrontamos com problemas éticos relacionados ao uso de sistemas digitais autônomos integrados coloca em xeque a própria natureza da condição humana afetada pelos próprios instrumentos sócio-técnicos que nos cercam. O pensamento utilitarista que concebe tecnologias como meros instrumentos a serem usados de diferentes modos por seus usuários acaba por produzir um cenário hipotético irrealista que remove a própria imersão humana em uma rede integrada, ignorando os efeitos dessa rede na própria tomada de decisão dos agentes. 

A grande questão aqui é como o uso de sistemas computadorizados, automatizados ou mesmo autômatos interfere na própria concepção de moralidade e na temporalidade cognitiva que reflete na tomada de decisões. Isso se aplica a todas as esferas onde toca a digitalização e a mediação por IAs, mas torna-se ainda mais grave quando o quesito é sua aplicabilidade militar. Diversos estudos demonstram como os efeitos da interação humano-máquina nesses termos afetam a percepção subjetiva e o comportamento objetivo dos agentes/usuários, e quando se trata dos programas militares aqui abordados, sua função já é a de acelerar a tomada de ação por parte dos agentes. 

Os sistemas autônomos de armas letais, no acrônimo em inglês LAWS, precisam ser compreendidos nesses termos: eles operam como uma miscelânea sistêmica, integrada em rede, onde os agentes militares fazem parte dessa totalidade e são sujeitos ao viés de automação que ela produz, como argumenta a pesquisadora Elke Schwarz. Além dos próprios impasses técnicos inerentes à lógica dos processamentos algoritmos complexos em aprendizado de máquinas – a natureza imprevisível e opaca de sua processualidade para atingir determinada finalidade, por exemplo –, o uso cotidiano e a velocidade de processamento acabam por superar a capacidade humana de supervisão efetiva. Além disso, produz-se a naturalização do procedimento maquínico, que acaba por legitimar a transferência de decisões críticas às máquinas. 

O futuro das máquinas assassinas hoje não é simplesmente a imagem hollywoodiana de robôs fortemente armados, exterminadores do futuro no presente, mas também a organização abstrata de sistemas autônomos voltados para a aceleração dos procedimentos de guerra. Essa infraestrutura concreta é também a produção espectral de uma nova subjetivação pautada na temporalidade maquínica, que por sua vez é definida pelas dinâmicas do capital e da guerra. Precisamos compreender de forma crítica tais contextos complexos para combatermos a distopia que não simplesmente nos aguarda, mas já se faz presente entre nós. 

 (*) Cian Barbosa é morador do Rio de Janeiro, sociólogo (UFF), doutorando em filosofia (UNIFESP) e psicologia (UFRJ). Pesquisa teoria do sujeito, crítica da cultura, violência, tecnologia, ideologia e digitalização; também é integrante da revista Zero à Esquerda, tradutor e ensaísta, além de professor e coordenador no Centro de Formação.