Imagini generate de inteligența artificială (A.I.) cu abuzarea sexuală a unor copii prezintă riscul „copleșirii internetului”, a avertizat Internet Watch Foundation, o organizație neguvernamentală din Marea Britanie, citată de The Guardian.

Copil abuzatFoto: Artit Oubkaew / Alamy / Profimedia Images

Organizația a precizat că a identificat aproape 3.000 de astfel de imagini care încalcă legislația britanică, explicând că în unele situații fotografii existente cu victime ale unor abuzuri reale au fost folosite pentru generarea unor noi imagini cu ele.

În alte situații tehnologia A.I. a fost folosită pentru a crea imagini cu celebrități care au fost „întinerite” și apoi înfățișate în scenarii de abuz sexual.

Alte exemple descoperite de Internet Watch Foundation au inclus folosirea unor fotografii găsite în mediul online cu copii îmbrăcați, instrumente A.I. fiind folosite pentru a-i înfățișa fără haine.

Susie Hargreaves, directorul executiv al IWF, a declarat că „cele mai îngrozitoare coșmaruri” ale organizației sale „au devenit realitate”.

„Am avertizat mai devreme în cursul acestui an că imaginile generate de A.I. ar putea deveni în curând indistinctibile de fotografii reale ale unor copii abuzați sexual și că am putea începe să vedem o proliferare a acestor imagini în numere mult mai mari. Am depășit acum acest punct”, a declarat Hargreaves.

Imaginile generate de A.I. sunt vândute pe dark web

„În mod terifiant, vedem infractori antrenând intenționat A.I. pe imaginile unor victime reale care au suferit deja abuzuri. Copiii care au fost violați în trecut sunt încorporați acum în noi scenarii deoarece undeva cineva vrea să vadă asta”, a adăugat ea.

Constatările au fost publicate de IWF în ultimul său raport, acesta bazându-se pe o investigație desfășurată pe forumuri din „dark web”, acea porțiune ascunsă a internetului care poate fi accesată doar cu browsere specializate și în cazul multor site-uri cu nume de utilizator și parolă.

Semnalul de alarmă tras de IWF vine în contextul în care aplicațiile și instrumentele bazate pe A.I. pentru generarea și manipularea imaginilor au cunoscut o dezvoltare spectaculoasă în ultima perioadă, deși atenția opiniei publice a fost atrasă mai degrabă de „roboții” conversaționali precum ChatGPT sau Bing.

Deși cele mai cunoscute aplicații de generare automată a imaginilor, ca de exemplu Midjourney, au încorporate mecanisme care să le împiedice să dea curs solicitărilor de a crea conținut ilegal, infractorii le folosesc adesea în tandem cu alte instrumente mai puțin performante, dar care nu au astfel de protecții.