Investigație jurnalistică: Israelul a folosit un sistem complex bazat pe inteligență artificială în războiul din Gaza. Tehnologia a identificat zeci de mii de ținte Hamas, pe care armata le-a lovit fără să țină cont de posibilele victime civile.

Știri

 [[{“value”:”

Potrivit The Guardian, care citează o investigație jurnalistică realizată de publicația israeliană 972 Magazine, șase ofițeri ai serviciului de Informații israelian au recunoscut în premieră, sub protecția anonimatului, că au creat “Lavender”, pe care o descriu drept “o bază de date” utilizată “pentru a corela sursele de informații despre agenții militari ai organizațiilor teroriste” și pentru a contribui astfel la identificarea posibilelor ținte, cu ajutorul AI. 

Au recunoscut, de asemenea, că au folosit tehnologia în luptele din Gaza și că au permis, în scopul neutralizării unor ținte potențial asociate cu Hamas, uciderea unui număr mare de civili palestinieni, în special în primele luni ale conflictului. Lavender a fost dezvoltat de divizia de elită a Serviciilor de Informații a Forțelor de Apărare israeliene, Unitatea 8200. 

Oficiali ai serviciului de informații, familiarizați cu utilizarea programului, au susținut că aceasta a simplificat uciderea palestinienilor și a accelerat drastic procesul aprobării operațiunilor, deoarece noua abordare s-a desprins de procedura standard care implica, printre altele, factorul uman, precum negocieri și semnătura unui consilier juridic pentru ca ținta să fie considerată “legitimă”. Cu ajutorul Lavender, noua procedură a fost dusă la îndeplinire cu o atitudine rece, fără sentimente”

A existat o politică complet permisivă în ceea ce privește victimele operațiunilor, o politică atât de permisivă încât, în opinia mea, avea un element de răzbunare, a declarat un oficial. A explicat că IDF a considerat că este permisă uciderea a peste o sută de civili în atacurile asupra unui singur oficial Hamas de rang înalt, și până la 20 de civili pentru un membru al grupării teroriste de rang mai mic, deși numărul a fluctuat semnificativ în funcție de etapele ofensivei. Oficialii au mai susținut că, datorită capacității Lavender, “țintele nu se termină niciodată”.  

Lavender a creat o bază de date cu zeci de mii de persoane care au fost identificate drept membri de rang inferior ai Hamas. Mai mult, aceasta a fost utilizată împreună cu un alt sistem de sprijin decizional bazat pe inteligență artificială, numit Gospel, care analiza și propunea clădiri și structuri ca ținte.

Oficialii din serviciul de informații al Israelului au declarat, sub protecția anonimatului, că Lavender a ajuns să joace un rol central în război, procesând baze de date masive pentru a identifica cât mai rapid potențiali teroriști. Aceștia au adăugat că Lavender a listat până la 37 de mii de ținte potențiale care, potrivit sistemului de inteligență artificială, aveau relații cu Hamas. Totuși, potrivit relatărilor acestora, în funcție de algoritmii cu care era definită ținta, sistemul a început să sugereze chiar și ofițeri de poliție din Gaza ca eventuale ținte.

Pe măsură ce bombardamentele IDF asupra Gaza s-au intensificat, procesele de stabilire a țintelor prin intermediul Lavender au fost relaxate și mai mult, iar eliminarea suspecților, pe baza AI, a fost stabilită inclusiv în locuințe, fără ca aceștia să fie angajați în luptă, fără să se țină cont de civili.

Ministerul Sănătății din Gaza afirmă că 32 de mii de palestinieni au fost uciși în conflict în ultimele șase luni. Înainte de război, SUA și Israelul estimau numărul membrilor aripii militare a Hamas la aproximativ 25-30 de mii de persoane.

Sursă alternativă: The Guardian

“}]] 

Preluare: Biziday Read More