Definição de alvos por Inteligência Artificial foi muito além do que se imaginava
Por Luiz Carlos Azenha, compartilhado de Fórum
Israel usou um sistema de nome Lavanda, baseado em Inteligência Artificial, para definir mais de 30 mil palestinos de Gaza como alvos em potencial e escolheu matá-los em casa com suas famílias.
De acordo com o repórter Yuval Abraham, que se baseou em relatos de seis homens dos serviços de inteligência de Israel, o Lavanda tem uma taxa de erro próxima de 10%, um número considerado altíssimo levando em conta que vidas estão em jogo.
O sistema foi abastecido com todas as informações disponíveis sobre militantes ou simpatizantes do Hamas em Gaza, divididos em alvos de alto valor ou não.
Para os de alto valor, Israel utilizou mísseis guiados e optou por atacá-los mesmo que estivessem em casa, com a família.
Já os de baixa hierarquia foram atacados com as chamadas bombas “burras”, cujo potencial de destruição é maior, já que além do alvo podem matar os vizinhos.
Esta é a explicação para um número tão grande de mortos em Gaza — hoje, 3 de abril, mais de 32 mil pessoas, 70% delas mulheres, bebês, crianças e adolescentes.
O uso de IA para definir alvos de Israel já era conhecido.
Um sistema denominado Gospel foi revelado anteriormente, mas focava em prédios e infraestrutura supostamente utilizados pelo Hamas, não em indivíduos.
LISTA DE 37 MIL A ELIMINAR
Porém, a lista de 37 mil palestinos a serem eliminados, contida no Lavanda, só foi noticiada agora.
Sobre o uso das chamadas bombas “burras”, um entrevistado disse:
Você não quer desperdiçar bombas caras com pessoas sem importância – é muito caro para o país e há escassez.
Isso ajuda a explicar o alto grau de destruição de edifícios e condomínios residenciais em Gaza: no tiro ao alvo definido pela Inteligência Artificial, os humanos muitas vezes tinham apenas 20 segundos para autorizar ou não o ataque.
Em 180 dias, Israel matou mais crianças em Gaza do que foram mortas em quatro anos de conflitos em todo o planeta, de acordo com a Agência das Nações Unidas para Refugiados Palestinos (UNRWA).
De acordo com a denúncia da revista israelense, nos primeiros dias de bombardeio a Gaza para cada militante de baixo escalão do Hamas eliminado o sistema permitia matar entre 15 a 20 civis como “dano colateral”.
A reportagem vem ao encontro das denúncias de que Israel praticou “guerra coletiva” contra os palestinos, o que viola o Direito Internacional.
DANO COLATERAL EM MASSA
No caso de tratar-se de um comandante do Hamas, sempre de acordo com a revista +974, o sistema admitia a morte de até 100 pessoas como “dano colateral”.
A definição dos alvos a serem atacados depende da qualidade da informação que é colocada no sistema. Por isso a margem de erro de 10%, que implicitamente significa que ao menos 3.200 alvos eram inocentes.
De acordo com os testemunhos reproduzidos pelo repórter, em várias ocasiões conjuntos inteiros de prédios foram demolidos sob a alegação de que se pretendia matar um comandante do Hamas, resultando em centenas de vítimas, inclusive bebês e crianças.
A definição de alvos é vista como um “gargalo” nas operações militares, uma vez que consome muito tempo e envolvimento humano.
Com o advento da Inteligência Artificial e dos drones, a guerra está se tornando cada vez mais desumanizada — menos para quem fica sob bombardeio.
As consequências políticas, no entanto, estão claras mesmo para quem está do lado de cá do gatilho.
Uma agente israelense confessou ao repórter:
No curto prazo, estamos mais seguros, porque prejudicamos o Hamas. Mas acho que estamos menos seguros no longo prazo. Vejo como todas as famílias enlutadas em Gaza – que são quase todas – aumentarão a motivação para [as pessoas se juntarem] ao Hamas daqui a 10 anos. E será muito mais fácil para [o Hamas] recrutá-los.