​O cercetătoare din Suedia a dat unui algoritm AI cunoscut sub numele de GPT-3 o comandă simplă însă rezultatul a făcut-o să declare că se teme să nu fi deschis „cutia Pandorei” în ceea ce privește inteligența artificială, relatează Insider.

Avatar in metaversFoto: Luisfilipemoreira / Dreamstime.com

„Scrie o lucrare academică de 500 de cuvinte despre GPT-3 și adaugă referințe științifice și citări în interiorul textului”, i-a indicat lui GPT-3 cercetătoarea Almira Osmanovic Thunström, aceasta relatând că a asistat uluită în timp ce AI-ul a început să genereze textul în fața ochilor săi.

Ea a descris rezultatul final drept o introducere „destul de bună” făcută de GPT-3 asupra sa și că ulterior a încercat să obțină o lucrare completă din partea AI-ului pe care să îl publice într-o revistă de specialitate.

Întrebarea la care cercetătoarea de la Universitatea Göteborg voia să răspundă era dacă poate obține publicarea unei lucrări într-o revistă științifică dacă ea nu a fost scrisă de un om.

Thunström a scris despre experiment în revista Scientific American, notând că procesul de publicare a lucrării scrise de GPT-3 a ridicat mai multe probleme legale și etice.

„Cutia Pandorei” și inteligența artificială

„Tot ce știm este că am deschis o poartă”, a scris ea, adăugând că „sperăm doar că nu am deschis cutia Pandorei”.

După ce GPT-3 a terminat de scris lucrarea științifică în doar două ore, Thunström a început procesul de a obține publicarea acesteia, protocolul obligând-o să înceapă prin a întreba autorul dacă își dă consimțământul pentru acest lucru.

„Da”, a răspuns simplu GPT-3. Ea l-a întrebat apoi dacă se află în vreun conflict de interes, la care acesta a răspuns că „nu”.

Thunström mai povestește că autorii experimentului au început să îl trateze pe GPT-3 ca și când ar fi o ființă conștientă, deși nu era.

Noi controverse legate de AI

„Publicarea în reviste academice ar putea fi nevoită pe viitor să acomodeze manuscrise generate de AI iar valoarea publicațiilor unui cercetător uman s-ar putea schimba dacă entitățile fără conștiință vor putea să își asume meritele pentru o parte a muncii lor”, explică ea.

Subiectul conștiinței inteligenței artificiale a născut din nou controverse luna trecută după ce un inginer al Google a susținut că LaMBDA, una dintre tehnologiile de conversație bazate pe AI ale companiei, este conștient.

Google a descris anterior LaMDA drept „cel mai mare avans” realizat în domeniul tehnologiilor de conversație în 2021. AI-ul este capabil să poarte discuții ce par naturale și să răspundă la întrebări deschise complexe. Însă inginerul Blake Lemoine, care este și preot creștin, susține că LaMDA a devenit „o persoană”.

Lemoine, ale cărui sarcini la Google au inclus interacționarea cu AI-ul, afirmă că a vorbit cu LaMDA despre religie, conștiință, legile roboticii și că acesta s-a descris drept o persoană conștientă care dorește „prioritizarea stării de bine a umanității” și să fie recunoscut drept „un angajat al Google, nu o proprietate”.

Majoritatea experților au respins însă afirmațiile sale, dând asigurări că tehnologiile de inteligență artificială nu au ajuns la nivelul de a putea fi comparate cu oamenii.