​În ce condiții recunoașterea facială pe bază de AI poate fi folosită împotriva cetățenilor UE și ce lipsește din noua lege privind inteligența artificială? Acestea sunt doar două din întrebările la care am încercat să răspundem, împreună cu europarlamentarul Dragoș Tudorache și profesorul Răzvan Rughiniș de la Facultatea de Automatică și Calculatoare, în cadrul unei dezbateri HotNews.ro.

Oameni care lucrează în AI protestează în Londra împotriva dezvoltării acestor aplicațiiFoto: Vuk Valcic / Alamy / Alamy / Profimedia

Parlamentul European a adoptat în urmă cu două zile Legea privind inteligența artificială, așa-numita „AI Act”, care oferă garanții că tehnologia nu va fi folosită în mod abuziv.

De exemplu, sistemele de identificare biometrică care au în spate AI pot fi folosite doar sub supravegherea unui judecător sau unei autorități cu atribuții în domeniul judiciar.

În ceea ce privește folosirea abuzivă a inteligenței artificiale în alegerile europene din acest an, noul act normativ, care deocamdată este unic în lume, nu va putea oferi protecția necesară, deoarece are mai multe termene până la intrarea în vigoare.

Despre aceste subiecte și multe altele am vorbim cu europarlamentarul Reper Dragoș Tudorache, care a fost coraportor din partea Comisiei pentru libertăți civile pentru AI Act și cu profesorul Răzvan Rughiniș de la Facultatea de Automatică și calculatoare la Universitatea Politehnică și autor al cărții „Societatea Digitală”.

Mai jos sunt principalele declarații din această dezbatere, iar întreaga discuție poate fi urmărită în format video. ​

„Va exista o comandă umană la finalului oricărei utilizări a inteligenței artificiale”

Dacă ar fi să vă adresați unor cetățeni care nu sunt neapărat familiarizați cu tehnologia și care se întâlnesc cu o știre despre faptul că Parlamentul European a legiferat inteligența artificială. Ce le-ați spune? Ce ar trebui să rețină din această lege?

Dragoș Tudorache: Cred că e important să rețină faptul că acum vor fi protejați pentru posibilele riscuri pe care le pot întâlni atunci când vor interacționa, inevitabil, cu inteligența artificială, în mai toate produsele, serviciile pe care le vor accesa în viitorul nu foarte îndepărtat.

Aceste aplicații vor deveni omniprezente, iar cetățenii trebuie să se simtă protejați. Iar pentru a avea încredere trebuie să existe transparență și reguli clare.

Și trebuie să știe că întotdeauna există o comandă umană la finalul unei utilizări a inteligenței artificiale. Chiar dacă este vorba despre o decizie (n.r. - a AI), aceasta nu poate fi luată fără o responsabilitate umană. Acesta este cel mai important mesaj al legii.

Un exemplu concret: oamenii vor fi înregistrați pe stradă, iar imaginile vor fi stocate într-un calculator, iar de acolo autoritățile vor putea să facă ce vor cu ele?

Dragoș Tudorache: Nu, va fi exact invers din acest moment. Fără aceste norme, lucrul pe care tocmai l-ați descris se poate întâmpla.

În afară de GDPR, nu există nicio altă normă care să reglementeze tehnologia de inteligență artificială din spatele camerelor video ce colectează imagini în spațiul public.

Impactul și potențialul abuz care poate apărea din utilizarea acestei tehnologii sunt foarte mari. Legea stabilește că utilizarea inteligenței artificiale pentru recunoaștere facială în spațiul public în timp real este interzisă.

Există excepții: când suntem în prezența unui atac iminent sau a unui atac în desfășurare de natură teroristă. Există o listă foarte scurtă de infracțiuni foarte grave care pot permite autorităților de aplicare a legii, poliției, să poată să utilizeze această tehnologie în spațiul public în timp real.

Chiar și în aceste situații folosirea tehnologiei vine cu niște garanții foarte clare și anume un control judecătoresc. Dacă judecătorul sau autoritatea respectivă spune că recunoașterea facială pe bază de AI nu a fost justificată, toate datele trebuie șterse și nu se pot folosi informațiile strânse în acest mod.

Care sunt limitările Legii privind inteligența artificială?

Răzvan Rughiniș: Mă bucur foarte tare că avem acest cadru legislativ. Bineînțeles că ne-am dori ca eforturile să continue. Personal, sunt preocupat de două mize pe care le vedem și în dezbaterea publică.

Prima este impactul pentru piața muncii, pentru că dincolo de acest progres asistăm și la o accelerare către dispariția unor sectoare de muncă. În Statele Unite există, de exemplu, o întreagă dezbatere despre posibilitatea ca tirurile să funcționeze în regim autonom, pentru că acolo sunt milioane de șoferi care își întrețin familiile din această meserie. Există reglementări pentru ca în acest moment să nu existe tiruri autonome.

Ca să ne întoarcem în UE, există teme pe piața muncii că ne îndreptăm spre o societate în care nu vom mai avea artiști, nu vom mai avea jurnaliști, nu vom mai avea programatori.

Cred că este o preocupare pe care trebuie noi să o discutăm, pentru că tehnologia la finalul zilei este doar un mijloc spre a ajunge la un proiect comun de societate. Astăzi, noi doar asistăm la această accelerare, fără să ne dăm seama dacă accelerarea este spre o prăpastie sau spre o bunăstare comună mai mare.

A doua preocupare se referă la armele autonome. Este o temă care în 2021 a fost ridicată la Geneva și, într-un mod paradoxal, a fost blocată de o alianță foarte nefirească.

În decembrie 2021, Statele Unite și Rusia au refuzat reglementarea în cadrul Congresul de la Geneva a armelor autonome. Două luni mai târziu, Rusia invada Ucraina și totul s-a schimbat.

Actualul cadru legislativ (n.r.- AI Act) nu acoperă nimic din modul de utilizare a inteligenței artificiale pentru decizii care pot conduce la pierderi de vieți omenești.

Dragoș Tudorache: În ceea ce privește impactul asupra pieții muncii, aici trebuie o împletire a eforturilor sectorului public și privat pentru a pregăti o revoluție pe cale să se întâmple. Pentru că inteligența artificială va înlocui cu precădere sau va schimba tipul de muncă cu aport intelectual (spre deosebire de alte revoluții industriale).

În ceea ce privește zona de apărare, aceasta nu este o chestiune în care Uniunea Europeană să se poată pronunța, nu este un domeniu care face parte din tratatul UE. Există riscuri în zona de apărare, clar, dar Parlamentul European nu poate legifera. Vestea bună este că în cadrul NATO există o discuție începută pe acest subiect.

Cum trebuie interpretate avertismentele legate de inteligența artificială?

Cum trebuie să interpretăm, ca simpli cetățeni și utilizatori de tehnologie, avertismentele legate de AI ale unor oameni care vin din interiorul industriei? Directorul diviziei de business de la Google X spunea că nu mai trebuie să facem copii, Sam Altman de la OpenAI vorbea despre un risc existențial.

Răzvan Rughiniș: Le putem interpreta ca o invitație la deschiderea tehnologiei către o societate mai largă. Din păcate, multe dintre decizii sunt luate de un grup foarte restrâns de lideri din tehnologie. Este nevoie să ascultăm mai multe voci.

Având în vedere că vorbim despre o tehnologie cu un impact atât de radical, cred că trebuie să ne implicăm mai mult, nu mai puțin, să facem copiii și să încercăm să-i familiarizăm cu aceste schimbări sociale, să le cerem și lor părerea.

E o responsabilitate să nu mai avem acest fatalism pe care, din păcate, îl văd în jurul meu. Tehnologia se va dezvolta inevitabil, indiferent de părerea noastră. Și de aici vine și importanța acestui nou pas legislativ pe care Uniunea Europeană îl face. Este un antidot față de fatalismul în fața tehnologiei.

Cum au ținut autorii „AI Act” seama de avertismentele oamenilor din industrie care au spus că AI reprezintă un risc existențial?

Dragoș Tudorache: Sigur că am ținut seama. În urmă cu doi - trei ani, când nimeni nu era atent la subiect, înainte de apariția ChatGPT, organizam dezbateri cu experți din diferite domenii, gânditori din zona inteligenței artificiale și a universităților de top din lume.

Deja de atunci început să să ne spună să fim foarte atenți la aceste modele de frontieră, aceste modele fundamentale, așa cum sunt renumite și tratate de altfel în lege, pentru că chiar dacă ele par să fie cumva inofensive ca scop, pot fi periculoase.

Legea noastră se uită la scopurile utilizării tehnologiei și încearcă să reglementeze tehnologia prin scopul urmărit și prin riscurile care rezultă din acele scopuri. În proiectul de lege am introdus un regim special pentru aceste modele de frontieră, care acum este replicat și în Statele Unite și în Marea Britanie.

Ce înseamnă regim special?

Legea se uită strict la utilizarea tehnologiei și o împarte în categorii de risc. Asta este abordarea principală a legii. Dacă îmi permite o comparație, imaginați-vă că luați un copil, fără niciun fel de educație, fără niciun fel de busolă morală, îl punem în stradă, îl expunem și la bine, și la rău și apoi îl lăsăm să se comporte în funcție de ce vede.

Fără această busolă morală venită de la părinți, de la școală, acel copil va face și bine și rău, fără să știe ce e bine și ce e rău. Deci dacă expui modelul (AI) la tot ce găsește pe internet, și bun, și rău, fără să-i dai o busolă morală, fără să-i dai un set de instrucțiuni clare să poată producă un material pornografic mâine. Sau poate construi o bombă poimâine.

Poate cineva cu ajutorul ChatGPT, de exemplu, să facă în acest moment o bombă sau un agent patogen?

Dragoș Tudorache: Tocmai pentru că ceea ce v-am spus nu e ficțiune, aceste lucruri au fost luate în serios. Normele din AI Act au indus deja jucătorilor din zona de inteligență artificială un sentiment de responsabilitate pe care acum un an nu-l aveau. Atunci spuneau că responsabilitatea este a celor care utilizează aceste aplicații.

Acum, și în SUA și în Marea Britanie au început să intervină în piață cu niște reguli foarte clare, tocmai pentru că e nevoie, cel puțin la nivelul democrațiilor lumii, să avem această reacție și această interacțiune cu firmele care dezvoltă aceste modele și să ne asigurăm că nu produc acele „riscuri existențiale” de care vorbiți.

Ce este inteligența artificială generalistă și dacă trebuie să ne temem de ea?

Răzvan Rughiniș: Eu cred totuși că discuția despre AGI (inteligența artificială generalistă) este în primul rând o campanie de marketing a acestor companii pentru a crea motivația de a investi mai mult în inteligența artificială, de accelerare și mai rapidă, de a îndepărta atenția față de problemele prezente, foarte mari astăzi și de a ne deresponsabiliza pentru ceea ce noi, ca cetățeni, în societatea prezentă, cu atât de multe unelte AI, ar trebui s-o avem.

Ar trebui să ne temem de Inteligența Artificială Generalistă?

Răzvan Rughiniș: N-ar trebui să ne temem. Poate sunt foarte multe temeri pe care putem să le avem. Dar noi am avut ca umanitate, progrese importante tocmai pentru că am adresat în primul rând problemele reale curente.

Dacă în 1960 americanii ar fi început să discute despre cum ajungem pe Marte, înainte să avem discuția despre cum punem un om pe orbită sau cum ajungem pe Lună, ce s-ar fi întâmplat?

Cred că parcurgerea cu atenție și responsabilitate a fiecărei etape și mai ales a celor cu impact direct asupra populației prezente este mai importantă decât să ne refugiem într-o lume a viitorului care poate să fie foarte diferită, dacă folosim această metaforă a cursei de cucerire a spațiului.

A rămas UE în urma SUA și Asiei în ceea ce privește dezvoltarea inteligenței artificiale?

Când vorbim de aplicații de inteligență artificială vorbim în principal de aplicații americane. Cum este Europa în comparație cu cei doi mari competitori, Statele Unite și Asia, în ceea ce privește dezvoltarea inteligenței artificiale?

Întrebarea vine în contextul în care în urmă cu doi ani făceam un interviu cu cineva de la Ericsson care spunea că în ceea ce privește dezvoltarea tehnologiei 5G, Europa este în urma Asiei și a Statelor Statelor Unite. În ceea ce privește inteligența artificială, cum suntem?

Răzvan Rughiniș: Europa a făcut o decizie importantă în susținerea unei piețe competitive cu un număr mare de actori, ceea ce duce la o prezență mai mică a unor companii gigantice în topul mondial.

Lucrul acesta n-ar trebui să ne îngrijoreze, pentru că toate aceste companii masive americane, chineze ajung să-și creeze propriul ecosistem, să pună o presiune atât pe sistemul politic, cât și pe cel social.

Europa a încercat să păstreze un echilibru între inovația adusă și o competitivitate a pieței care este asigurată numai în prezența unui număr mare de actori, lucru pe care îl face inclusiv această lege, prin responsabilitatea guvernelor de a crea niște spații legislative pentru testarea acestor tehnologii.

Când vine vorba de niște răspunsuri ceva mai concrete, numărul startup-urilor europene este la paritate cu cel american. E adevărat că în lipsa unui capital pe care America îl are și a unui deschideri pentru risc, pentru că asta înseamnă inovarea,

Europa se dezvoltă mai lent, adesea prin clienți. America se dezvoltă mult, mult mai rapid. Deci nu este vorba de neapărat de punctul în care suntem astăzi, ci de asumare a unui model accelerat de dezvoltare a tehnologiilor pe care America, Israelul îl înțeleg de multe ori.

Tehnologiile noi vin cu niște riscuri economice importante. Din acest motiv, adesea, statele participă în etapele incipiente ale inovării de tip „deep tech”, a tehnologiei care poate că nu are astăzi aplicare în piață, dar care va schimba în mod radical lumea. Cred că Europa vine cu răspunsuri.

Vine cu fonduri de investiții de risc capabile să susțină această formă de inovare. Avem inclusiv companii și aici. Noi ne uităm doar la zona de aplicație, de tehnologie, dar trebuie să înțelegem că inteligența artificială face parte și din succesul companiei daneze Novo Nordisk, care a făcut-o Ozempic.

Industria farmaceutică de astăzi este puternic impactată de modelele de inteligență artificială. E adevărat, încă o dată, că ritmul actual de dezvoltare a inovației, în lipsa unui capital, ritmul este mai lent în Europa față de America și China.

Vom fi afectate aceste alegeri din UE de aplicațiile de inteligență artificială, de tipul deep fake și altele?

Dragoș Tudorache: În mod evident vor fi afectate. Sunt deja de mult timp afectate de inteligența artificială, dar nu eram foarte atenți la asta. Dar algoritmii de social media funcționează pe bază de inteligență artificială de ani de zile.

Ei amplifică un anumit tip conținut față de alt tip de conținut. Și acesta de obicei tinde să fie cel cu tentă negativă sau cel cu aer conspiraționist și tocmai de aceea vedem diviziunile pe care le vedem în acest moment în societate.

Deci există deja un efect dăunător al spațiului informațional online și al modului în care el s-a construit în ultimele ultimii 20 de ani. De aceea a fost nevoie să intervenim cu reguli. Suntem deja în fața acestui fenomen pe care nu-l vom putea opri atât de repede. Deci, pentru aceste alegeri din 2024, da, vom fi în continuare bombardați cu fake news, vom fi în continuare expuși informării și, mai mult decât atât, cu dezvoltarea acestor instrumente generative de AI.

Vom fi bombardați și cu videoclipuri, imagini sau texte care au fost generate de inteligența artificială și în lipsa unor obligații privind etichetarea conținutului de către cei care produc sau care găzduiesc astfel de conținut, va fi greu să discernem între adevăr și intoxicare. Legea aceasta vine cu aceste reguli.

Din păcate, ea nu va intra în vigoare într-un timp util pentru alegerile acestea.

De ce?

Parcursul legislativ este formal încheiat, urmează publicarea în Monitorul Oficial, însă pentru că am recunoscut nevoia, atât pe partea autorităților și naționale și europene care vor avea competențe în implementare legii, dar și pe partea companiilor care sunt afectate de de aceste reguli, am lăsat o perioadă de timp pentru implementare, șase luni de zile, termenul la care interdicțiile vor intra în vigoare și 12 luni, termenul la care obligațiile pe privind acele modele de frontieră la care făceam referire intră în vigoare și 24 de luni pentru toate celelalte prevederi din lege.

Deci acest act nu este relevat pentru alegerile din 2024, dar vestea bună e că multe companii au început să se conformeze voluntar acestor reguli.