Parlamentul European a dat undă verde Legii AI, cu scopul de a echilibra puterea și responsabilitatea creatorilor uneia dintre cele mai influente tehnologii ale momentului. Esența legii e să punem la punct un limbaj comun pentru a discuta despre diferitele grade de risc ale modelelor AI și să ne ajustăm cerințele de transparență și monitorizare în consecință. Modelele AI, deși inteligente, nu sunt și pedepsibile, deci nu pot fi trase la răspundere direct pentru efectele deciziilor lor. Deci, e clar că oamenii sau organizațiile care „trag sforile” acestor tehnologii trebuie să preia responsabilitatea. Așadar, Legea AI propune un nou model social de dezvoltare organică a tehnologiei. Într-o societate dominată de giganții tehnologici, legea AI recuperează rolul experților și ONG-urilor, care vor oferi o contrapondere puterii acumulate de marile companii. Legea propune o descentralizare a monitorizării AI, prin cerințe de transparență în fața auditurilor independente și prin sporirea radicală a vizibilității publice privind ingredientele acesteia și funcționarea sa efectivă, reală.

Razvan RughinisFoto: Arhiva personala

Legea identifică, poate puțin școlăresc, o clasificare simplă, cu patru niveluri de risc: risc scăzut, moderat, ridicat și inacceptabil. Atenția se concentrează, însă, asupra modelelor cu risc ridicat de daune și inechitate – precum cele utilizate în vehicule autonome, în medicină, în educație, în recrutarea angajaților, în poliție și justiție. Cei care creează și lansează pe piață astfel de aplicații AI trebuie să fie responsabili pentru datele de antrenament, consumul lor de energie și impactul real al deciziilor modelelor. Există prevederi pentru respectarea drepturilor de autor, pentru asigurarea transparenței funcționării, evaluarea și monitorizarea riscurilor, auditarea acestora de ONG-uri, experți și agenții publice, precum și raportarea și atenuarea efectelor negative și protejarea drepturilor noastre fundamentale.

Legea AI urmărește și stimularea companiilor mici și mijlocii și crearea unei piețe libere a dezvoltării AI, care să nu fie strivită de giganții tehnologici. Autoritățile publice naționale au responsabilitatea creării unor așa-zise „cutii de nisip” („sandbox”), medii de experimentare, dezvoltare și testare a tehnologiilor AI ce urmează a fi puse pe piață. Acestea vor echilibra oportunitățile între competitorii pe piața AI, permițând și generarea unor modele mai mici, dar mai bine țintite.

Totuși, legea are și două mari limitări. Prima excepție notabilă este utilizarea AI în războaie, care rămâne fără răspuns. Aceasta nu este o omisiune minoră, având în vedere contextul internațional curent.

Trăim deja și un al doilea risc major care nu e acoperit de Legea AI: înlocuirea pe scară largă a muncii umane cu algoritmi. Deși legea abordează unele riscuri legate de muncă, precum discriminarea în recrutare sau abuzurile managementului algoritmic, ea nu tratează înlocuirea creativității, gândirii și muncii umane prin versiuni algoritmice. Aceasta afectează o gamă largă de munci, de la artiști la jurnaliști și, poate paradoxal, chiar programatorii. Oare societățile europene vor găsi noi echilibre în care munca de calitate să fie prețuită, societăți în care să găsim artiști, jurnaliști și programatori umani în orașele viitorului? AI promite o creștere mare a productivității muncii – dar cine va beneficia de pe urma acestui spor.Citeste restul articolului pe Contributors.ro