Peste 37.000 de potenţiale ţinte suspectate de legături cu gruparea palestianiană Hamas au fost identificate de armata israeliană prin intermediul un sistem de inteligență artificială, denumit „Lavender”, dezvăluie The Guardian, care a consultat mai multe surse din serviciile de informații implicate în războiul din Gaza

atacuri israeliene asupra orasului Rafah din GazaFoto: Ismael Mohamad / UPI / Profimedia

Utilizarea de către Israel a acestui sistem reprezintă intrarea pe un tărăm încă nexplorat pentru războiaele avansate și ridică întrebări prin moralitatea unor asemenea decizii, cât și despre legalitatea lor, subliniază publicația britanică, citată de news.ro.

„Acest lucru este fără precedent, din câte îmi amintesc”, a declarat un ofițer de informații, care a afirmat că autoritățile au avut încredere mai multă într-un „mecanism statistic” decât în soldați care au fost martori la atrocitățile din 7 octombrie. „Maşina a făcut (nr. selecţia țintelor) fără sentimente. Şi asta a făcut să fie mai uşor", a explicat ofiţerul de informaţii.â

Un alt utilizator al sistemului Lavender a confirmat că rolul oamenilor în procesul de selecţie este nesemnificativ. „Investesc 20 de secunde pentru fiecare ţintă în acest stadiu şi fac zeci de astfel de selecţii în fiecare zi. Am zero valoare adăugată ca om, în afară de a fi o ştampilă de aprobare. Economiseşte foarte mult timp”, a mărturisit el.

Mărturiile a şase ofiţeri de informaţii, toţi implicaţi în utilizarea sistemelor de inteligenţă artificială pentru a identifica ţinte Hamas şi din Jihadul Islamic Palestinian (PIJ) în timpul războiului, au fost consemnate de jurnalistul Yuval Abraham pentru publicaţia israeliano-palestiniană +972 Magazine şi publicaţia de limbă ebraică Local Call, menţionează The Guardian. Relatările lor au fost împărtăşite în exclusivitate cu The Guardian înainte de publicare.

Toţi cei şase au declarat că Lavender a jucat un rol central în război, procesând volume mari de date pentru a identifica rapid potenţiali agenţi „juniori" pe care să-i vizeze. Patru dintre surse au declarat că, la un moment dat, la începutul războiului, Lavender a listat până la 37.000 de bărbaţi palestinieni pe care sistemul AI i-a legat de Hamas sau PIJ.

Lavender a fost dezvoltat de divizia de elită a serviciilor de informaţii a Forţelor de Apărare israeliene, Unitatea 8200, comparabilă cu Agenţia Naţională de Securitate a SUA sau cu GCHQ din Marea Britanie.

Civili au căzut victime sistemului Lavender

Mai multe surse au declarat că civili au căzut victime în urma atacurilor făcute în baza sistemului AI, iar autoritățile israeliene au introdus cote pre-autorizate pentru numărul estimat de civili care ar putea fi ucişi înainte de a fi autorizată o lovitură.

Două surse au declarat că, în primele săptămâni de război, li s-a permis să ucidă 15 sau 20 de civili în timpul loviturilor aeriene asupra militanţilor de rang inferior.

Atacurile asupra unor astfel de ţinte au fost efectuate de obicei cu ajutorul unor muniţii neghidate, cunoscute sub numele de „bombe stupide", care au permis să fie distruse case întregi şi să-i ucidă pe toţi ocupanţii acestora, au declarat sursele.

„Nu vrei să iroseşti bombe scumpe pe oameni neimportanţi - este foarte costisitor pentru ţară şi există o lipsă (de astfel de bombe)", a declarat un ofiţer de informaţii. Un alt ofiţer a declarat că principala întrebare cu care s-au confruntat a fost dacă „daunele colaterale" asupra civililor permiteau un atac.

„Chiar dacă un atac este evitat, nu-ţi pasă - treci imediat la următoarea ţintă. Din cauza sistemului, ţintele nu se termină niciodată. Mai ai încă 36.000 care te aşteaptă", a declarat un ofiţer.

Potrivit experţilor în conflicte, dacă Israelul a folosit „bombe stupide” pentru a arunca în aer casele a mii de palestinieni care erau legaţi, cu ajutorul AI, de grupările militante din Gaza, acest lucru ar putea ajuta la explicarea numărului şocant de mare de morţi în război.

Ministerul Sănătăţii din teritoriul condus de Hamas afirmă că 32.000 de palestinieni au fost ucişi în conflict în ultimele şase luni. Datele ONU arată că, numai în prima lună de război, 1.340 de familii au suferit pierderi multiple, 312 familii pierzând mai mult de 10 membri.

Cum răspunde Israelul

Armata israeliană a replicat, printr-un comunicat, că operaţiunile sale au fost efectuate în conformitate cu normele de proporţionalitate prevăzute de dreptul internaţional, iar „bombele stupide” sunt un „armament standard” folosit de piloţii săi într-o manieră ce asigură „un nivel ridicat de precizie".

Comunicatul armatei a descris Lavender drept o bază de date utilizată „pentru a încrucişa sursele de informaţii, în scopul de a produce straturi actualizate de informaţii despre agenţii militari ai organizaţiilor teroriste”.

„Armata nu utilizează un sistem de inteligenţă artificială care identifică agenţi terorişti sau încearcă să prezică dacă o persoană este terorist”, afirmă Israeluil. „Sistemele informatice sunt doar instrumente pentru analişti în procesul de identificare a ţintelor".

Câte persoane sunt în sistem

În operaţiunile militare anterioare desfăşurate de Israel, identificarea ţintelor umane era adesea un proces care necesita mai multă muncă. Decizia de a „incrimina" o persoană sau de a o identifica drept ţintă legitimă era discutată şi apoi semnată de un consilier juridic.

În săptămânile şi lunile de după 7 octombrie, acest model de aprobare a loviturilor asupra ţintelor umane a fost accelerat în mod dramatic, potrivit surselor. Pe măsură ce bombardamentele asupra Gaza se intensificau, au spus acestea, comandanţii au cerut un flux continuu de ţinte.

„Am fost presaţi în mod constant: aduceţi-ne mai multe ţinte. Chiar ţipau la noi", a declarat un ofiţer de informaţii. „Ni s-a spus: acum trebuie să dăm în cap Hamas, indiferent de costuri. Orice puteţi, bombardaţi", a mai declarat sursa.

Pentru a satisface această cerere, armata a ajuns să se bazeze foarte mult pe sistemul Lavender pentru a genera o bază de date cu persoanele considerate a avea caracteristicile unui militant Hamas sau al Jihadului Islamic.

Lavender a creat o bază de date cu zeci de mii de persoane care au fost marcate ca fiind predominant membri de rang inferior ai aripii militare a Hamas. Aceasta a fost utilizată alături de un alt sistem de sprijin decizional bazat pe inteligenţă artificială, numit Gospel, care recomanda clădiri şi structuri ca ţinte, mai degrabă decât persoane.

Relatările includ mărturii despre modul în care ofiţerii de informaţii lucrau cu Lavender şi despre cum putea fi ajustată raza de acţiune a reţelei sale. „La apogeu, sistemul a reuşit să genereze 37.000 de persoane ca potenţiale ţinte umane”, a declarat una dintre surse. „Dar cifrele se schimbau tot timpul, pentru că depinde unde stabileşti ştacheta a ceea ce înseamnă un agent Hamas", a explicat sursa.

„Au fost momente în care un agent Hamas era definit mai larg, iar apoi maşinăria a început să ne aducă tot felul de membri ai apărării civile, ofiţeri de poliţie, asupra cărora ar fi păcat să irosim bombe. Aceştia ajută guvernul Hamas, dar nu pun cu adevărat în pericol soldaţii", a relatat sursa.

Înainte de război, SUA şi Israelul estimau numărul membrilor Hamas la aproximativ 25-30.000 de persoane.