Aldeia Nagô
Facebook Facebook Instagram WhatsApp

Algoritmo da morte: Inteligência Artificial gerou 36 mil alvos humanos a eliminar na Faixa de Gaza. Por Dorrit Harazim

4 - 5 minutos de leituraModo Leitura
Dorrit_Harazim

Até pouco tempo atrás o jornalismo independente da revista on-line +972, com sede em Tel Aviv, era pouco conhecido fora das fronteiras do Oriente Médio.

Publicada em língua inglesa desde sua fundação, em 2010, ela tem direção e corpo editorial composto de israelenses e palestinos.

Seu nome esdrúxulo deriva do código de telefonia usado tanto para Israel como para a Cisjordânia ocupada.
No espectro ideológico que estraçalha a profissão, a +972 pode ser definida como francamente de esquerda. É respeitadíssima junto a entidades internacionais de jornalismo investigativo e inversamente incômoda para o governo de extrema direita de Benjamin Netanyahu. Sobretudo em tempos de guerra.

Em novembro último, quando a +972 publicou um inquietante relato sobre o afrouxamento das normas militares que permitiam o bombardeio de alvos não militares por parte das Forças de Defesa de Israel (FDI), houve pouco alvoroço mundial.

Uma lástima, pois a investigação, assinada pelo veterano Yuval Abraham, se baseava no depoimento inédito sob sigilo de sete integrantes da ativa e da reserva dos serviços de inteligência israelenses — todos com atuação direta na campanha contra Gaza.

Agora, nos primeiros dias de abril, Abraham e a +972 voltaram à carga, em conjunto com o site em hebraico Sichá Mekomit (Chamada Local).

Sempre alicerçado no testemunho de oficiais das FDI, a investigação detalha o funcionamento de dois sistemas de inteligência artificial usados na retaliação militar ao traumático ataque terrorista sofrido em 7 de outubro.
O primeiro, batizado “Lavender” (Lavanda), elabora listas de alvos inimigos a ser assassinados na Faixa de Gaza, praticamente sem verificação humana. De que forma?

O software analisa informações recolhidas sobre a maioria da população de Gaza (2,3 milhões), monitorada em permanência por Israel, e avalia a probabilidade de cada um ser agente do Hamas.

Ao mastigar características de agentes terroristas conhecidos por Israel, o programa busca semelhanças na população. Disso brota a lista de alvos potenciais para assassinatos, produzida pelo algoritmo. As autorizações para o bombardeio passaram a ser quase automáticas, roubando em média 20 segundos de atenção humana.
O segundo programa desenvolvido para a ação militar contra Gaza tem nome com interrogação: “Onde está papai?”.

Destina-se a rastrear alvos para bombardeá-los especificamente em casas, apartamentos ou propriedades rurais familiares.

“Não estávamos interessados em matar agentes do Hamas apenas quando estivessem em instalação militar ou em confronto”, explicou um dos entrevistados. “Ao contrário. Como primeira opção e sem hesitação, as FDI bombardeavam o alvo em família.”

O que explica o altíssimo índice de mulheres e crianças despedaçadas e o apagamento de famílias inteiras.
Segundo entrevistados ouvidos na reportagem, o comando militar de Israel tomou a decisão fatal de tolerar a morte de 15 a 20 civis palestinos para a eliminação de cada militante de pouca relevância. O “dano colateral”.
Quando o alvo inimigo fosse um oficial graduado do Hamas, a tolerância aumentava para cem civis mortos. Ou mais. Para eliminar o comandante da Brigada Central de Gaza, Ayman Nofal, o Exército autorizou, segundo a reportagem, um dano colateral de 300 pessoas.

Foi uma carnificina e tanto no campo de refugiados de Al-Bureij naquele 17 de outubro.
“As regras naquela fase inicial e feroz da campanha eram muito lenientes”, contou um dos informantes. “Arrasavam-se quatro edifícios inteiros, mesmo sabendo que o alvo estava em apenas um — se é que estava. Era muito louco.”

Tão louco que, antes da pressão mundial para a matança ser suspensa, as FDI trabalhavam com margem de erro de 10% nos alvos humanos marcados para morrer. Um horror.

Os critérios da “Lavender” eram fluidos, mudavam a toda hora. Funcionários da Defesa Civil de Gaza ou pequenos burocratas deveriam ser considerados militantes do Hamas? Ou simpatizantes? E quem já pertenceu ao grupo, mas se desligou?

Um único denominador comum foi mantido com rigor: os alvos primários sempre deveriam ser homens, pois nem a ala militar do Hamas nem o grupo terrorista Jihad Islâmica Palestina tem mulheres em suas fileiras.

Foi nessa toada que a inteligência artificial gerou um catatau de 36 mil alvos humanos a ser eliminados na Faixa de Gaza, o que explica a criminosa mortandade indiscriminada das seis primeiras semanas da guerra: mais de 15 mil palestinos mortos, quase metade do total de 33 mil vítimas computadas até agora.

Sem falar no uso maciço das “bombas burras” de arrasa-quarteirão (sem componentes de precisão), responsáveis por danos colaterais infinitamente mais graves que mísseis guiados.

“Não é aconselhável desperdiçar bombas caras com pessoas sem importância”, explica um dos ouvidos na investigação.

Recomenda-se a leitura na íntegra dessa investigação. Um Estado militarizado e de vanguarda tecnológica, em que algoritmos calculam em escala industrial quem deve morrer, precisa ser chamado à razão. A sorte de Israel é ter cidadãos dispostos a jogar luz sobre a desumanidade.

*Dorrit Harazim é jornalista e documentarista

Artigo publicado originalmente em O Globo

Compartilhar:

Mais lidas