un sito di notizie, fatto dai commentatori

Gaza, la guerra, l’AI

0 commenti

Dopo l’attacco di Hamas del 7 ottobre e l’inizio della guerra a Gaza, l’individuazione di obiettivi da colpire da parte dall’esercito israeliano (IDF) ha subito una forte accelerazione. Per soddisfare la richiesta di nuovi target da colpire – sostiene un lungo reportage del Guardian, basato in larga parte su un’inchiesta pubblicata su due media israeliani critici del loro attuale governo, Local Call e +972 Magazine – l’IDF avrebbe fatto affidamento su Lavender, un sistema che genera un database di individui che avrebbero le caratteristiche di un militante di Hamas o della PIJ (Palestinian Islamic Jihad).

Lavender avrebbe svolto un ruolo centrale nei bombardamenti sui palestinesi, soprattutto durante le prime fasi della guerra, afferma l’inchiesta. E la sua influenza sulle operazioni militari sarebbe stata tale da indurre i militari a trattare i risultati del sistema di AI “come se si trattasse di una decisione umana”, sostiene +972 Magazine. Autore dell’inchiesta è Yuval Abraham, già coautore del documentario No Other Land (premiato al Festival del cinema di Berlino, qui un pezzo di Valigia Blu che lo racconta).

“Nelle prime settimane di guerra, l’esercito si è affidato quasi completamente a Lavender, che ha individuato ben 37.000 palestinesi come sospetti militanti – e le loro case – per possibili attacchi aerei”, scrive ancora +972 Magazine, aggiungendo che l’esercito avrebbe autorizzato gli ufficiali ad adottare le liste di target identificate da Lavender, senza alcun obbligo di verificare a fondo il motivo per cui il sistema aveva fatto quelle scelte o di esaminare i dati di intelligence grezzi su cui si basavano.

Il sistema Lavender si aggiunge a un altro sistema di intelligenza artificiale, noto sui media come “Habsora/Gospel”, di cui si era già parlato in passato. Ma una differenza fondamentale tra i due sistemi è nella definizione del bersaglio: mentre Gospel contrassegna gli edifici e le strutture da cui opererebbero i militanti, Lavender individua persone – e le inserisce in una kill list, una lista di persone da uccidere.
L’inchiesta sostiene anche che ci sia un ulteriore sistema per individuare e colpire il target quando sta rientrando a casa.

Continua a leggere su Guerre di Rete, la newsletter


Commenta qui sotto e segui le linee guida del sito.