Pagini de [cod]

Cel mai mare salt al tehnologiei: cum și de ce machine learning schimbă produsele digitale din viața noastră

de Răzvan Băltărețu     HotNews.ro
Miercuri, 2 decembrie 2020, 11:35 Pagini de [cod]


Machine learning
Foto: Unsplash.com
Sigur, 2020 e un an tulbure, dar a și validat câteva idei. Una dintre ele e că digitalizarea ne va ajuta mai mult decât orice, acum și în următoarele decenii. A fost prevăzută în literatura ficțională și e prevăzută an de an în strategiile pe baza cărora companiile mari își dezvoltă noile tehnologii. De aici înainte nu mai e o întrebare dacă ne ajută sau nu, dacă e fezabilă sau nu, ci e doar o chestiune de timp. Și din toată tehnologia o componentă e cu atât mai importanță: inteligența artificială.

Pe cât de mult ne-au ajutat romanele și filmele SF să ne imaginăm mai bine, mai frumos viitorul, pe atât de mult ne-au împotmolit în câteva stereotipuri care nu ne ajută chiar tot timpul. În 2001, de exemplu, a fost lansat filmul “A.I. Artificial Intelligence". Așa cum îi zice și numele e despre inteligența artificială, dar cea la care se gândesc cei mai mulți oameni: roboți care arată ca noi și pot, în anumite limite, să gândească la fel ca noi.

În 2013, filmul “Her" a dus ideea asta mai departe: robotul nici măcar nu mai există, ci capătă forma cu care suntem ceva mai familiarizați în prezent. E o aplicație din cloud care interacționează cu tine printr-un difuzor și-un microfon. N-are nevoie, propriu-zis, de ecran, ci doar de vocea și comenzile tale. Samantha din “Her" poate fi foarte bine Siri, Alexa sau Assistant și chiar Cortana. Doar că mai au un pic ca să ajungă chiar la acel nivel schițat în 2013. Mai au nevoie, conform estimărilor, de circa 10 ani.

Până atunci, dar și după acel punct, oamenii se vor referi la aceste sisteme ca având inteligență artificială. Nici producătorii de hardware nu se lasă mai prejos. Folosesc cu lejeritate cuvinte ca “AI" sau “artificial intelligence" când situația stă ceva mai simplu și chiar util pentru noi.

Două filosofii din tehnologie exemplificate prin telefonul tău


Dacă ești ca 99,99% dintre utilizatorii de smartphone, ai fie un Android, fie un iPhone. Altceva, pur și simplu, nu mai există cât să fie relevant. Și odată cu aceste două platforme, destul de similare, vin cele două filosofii de raportare la utilizatori și tehnologie. Pe de o parte e Google, care dezvoltă Android și miza principală e să colecteze cât mai multe date. De cele mai multe ori le folosește pentru reclame, dar acele date sunt utilizate și pentru a instrui algoritmi. Apoi e Apple care, în ultimii ani, a tot vorbit despre o componentă de pe procesoarele sale: neural engine.

Pe scurt, între cele două companii, în timp ce Google se bazează pe machine learning în cloud, cu date colectate de la utilizatori, Apple se bazează pe machine learning local, pe computer. Îi e mai ușor să facă asta, pentru că are control asupra hardware-ului. Iar noiembrie a fost monopolizată de Apple cu anunțul procesorului M1 de pe noile sale computere. Cipul M1 are un neural engine cu o arhitectură pe 16 nuclee.

Am detaliat toate acestea ca să ajung la ce-i cu adevărat important: inteligența artificială. Și, în prezent, la cea cu care noi interacționăm: machine learning. E și o glumă în industrie că îi spui “inteligență artificială" când e într-o prezentare PowerPoint și vrei să impresionezi și e “machine learning" (ML) când te pui pe treabă și trebuie s-o folosești.

În cifre cât de cât seci, Apple promite pe M1 o performanță de 11 trilioane de operații pe secundă pe procesare neurală. Toată acestea performanță, cel puțin după cum o explică producătorul, poate fi ușor utilizată în analiza conținutului video, audio, în recunoaștere vocală sau facială, în procesare de imagini și, în principiu, în orice sarcină plictisitoare și care trebuie să treacă prin volum masiv de date.

Sigur, conceptul de machine learning poate fi aplicat în diverse forme, atât prin procesare locală, cât și în cloud. Depinde doar de abordare și necesitate.

De exemplu, în securitate cibernetică, Bitdefender folosește ML ca să identifice tipare de atac și exploatare folosite de amenințările informatice. Astfel de sisteme pot verifica, în timp real, zeci de mii de amenințări care unui om i-ar lua mult prea mult ca să vorbim de ceva eficient. “Modelele de machine learning sau deep learning sunt foarte eficiente. În cazul nostru, de exemplu, identifică numeroase variante ale aceluiași malware. Astfel, cu o singură semnătură soluția noastră de securitate cibernetică descoperă de la câteva zeci de mii la peste un milion de amenințări informatice în același moment", a explicat Bogdan Botezatu, director de cercetare în amenințări informatice, Bitdefender. Sistemele bazate pe ML ajută compania să reducă cu 68% alertele fals pozitive, să crească cu 63% eficiență și să aibă investigații post-incident informatic cu până la 60% mai eficiente.

Bitdefender nu e însă singura companie românească unde se folosesc unelte care din sfera inteligenței artificiale. O implementare aparte, pe care o vom vedea tot mai des în următorii ani și următoarele decenii, vine de la Neurolabs, un startup din Cluj. În februarie, de exemplu, compania a furnizat soluția sa bazată pe machine learning unei cantine din Cluj. Ideea fondatorilor se încadrează în strategia de tip touchless pe care au început s-o implementeze companii mai mari la nivel global, cum ar fi magazinul Amazon Go din care iei produsele și pleci fără să treci pe la casă, pentru că totul a fost deja urmărit și identificat.

Neurolabs automatizează sarcinile vizuale repetitive, astfel încât angajații să se concentreze pe sarcini mai importante. În zona de comerț, acest startup a propus ZIA, o casierie automată și autonomă. Identifică toate produsele de pe tavă, elimină scanarea codurilor de bare și reduce timpul unui proces de încasare de la 61 la 15 secunde per tranzacție. Aceeași soluție a fost adaptată și producției, unde poate fi identificat mai repede și cu precizie componenta defectă de pe linia de asamblare.

Compania propune soluția asta de recunoaștere automată a obiectelor și în mediul medical, cum ar fi în timpul unei operații. Computerul ține minte și știe exact ce instrumente au fost luate și folosite și unde sunt ele puse. Toate acestea, ce stă la baza Neurolabs, e folosirea unui set mare de date (poze, în special) și extragerea caracteristicilor cheie ale obiectelor respective pentru a fi apoi recunoscute automat printr-o cameră video. Într-o anumită măsură are legătură și cu conceptul care stă la baza computational photography pe care îl voi detalia un pic mai încolo.


Sursa foto: Unsplash

Computerul nu va mai fi niciodată la fel

Dacă ai văzut filmul “Terminator", n-ai cum să nu-ți aduci aminte de T1000. Era un robot fenomenal, care putea lua orice formă, de la obiecte la oameni. În engleză, așa ceva ar putea fi caracterizat drept “shape-shifting". În zona aceasta sunt și computerele din prezent. Nu mai ai un singur computer care să facă ceva și altul altceva. Sigur, la scară mai mare vorbim de cele din cloud, care ar trebui să organizeze, sorteze, interpreteze milioane de fragmente de date, dar un computer nu mai poate fi definit la fel de ușor în prezent. Sunt și ele în categoria de “shape-shifting".

În cazul acesta vorbim de televizoare inteligente, laptopuri, telefoane din buzunar, dar și cele din ceasuri inteligente și, la o adică, din boxe inteligente. Toate acestea, de acum înainte, vor fi definite de inteligența artificială utilizată prin conceptul de machine learning. Computerele vor învăța și ne vor învăța, astfel încât ce primim de la ele ca urmare a cerințelor noastre să fie cât mai aproape de nevoi. Se ridică și niște probleme filosofice, dar nu acestea fac obiectul acestui articol.

Ce e mai important e cum te pregătești pentru această nouă eră. E nouă, chiar dacă termenul “machine learning" există de peste 50 de ani, iar tehnologia e folosită într-o formă sau alta de peste un deceniu. Dar noutatea e dată de integrarea tehnologiei în telefon. E cel mai popular computer al momentului, iar companii ca Apple, Huawei, Qualcomm sau ARM aduc procesarea de tip neural chiar în buzunarul tău. Ce se întâmplă de aici înainte? Pe scurt, apar și mai multe proiecte care să profite de așa ceva.

Încă de când termenul “machine learning" a fost introdus, definiția lui nu s-a schimbat: computerele dobândesc aptitudinea de-a învăța fără să fie explicit programate. Și învață din colecția monumentală de date pe care o au la dispoziție.


Pe cât de mare e saltul adus de această tehnologie, odată cu capacitatea de procesare sporită a computerelor, pe atât de simplă e în esență. Bazele matematice ale acestui domeniu sunt stabilite prin algebra liniară, adică matrice, sisteme liniare, descompuneri. Și împărțirea ca responsabilități e, de asemenea, simplă. Dacă ești mai concentrat pe zona de aplicații, pe a folosi, propriu-zis, ML, nu ai atât de multă nevoie de matematică. Ai biblioteci consistente care să te ajute. Totuși, dacă ești în zona de R&D în ML, atunci matematica va fi cea de care vei depinde cel mai mult.

Ca limbaj de programare, dintre toate se remarcă Python și asta datorită librăriilor dedicate pentru AI și ML, cum ar fi TensorFlow, SciKit-learn (pentru algoritmi de bază în machine learning), Keras și nu numai. Împărțite între ce face fiecare, ar fi așa: pentru prelucrarea datelor în format text sunt folosite și recomandate NLTK, SciKit și NumPy. Pentru lucrul cu imagini, atunci sunt recomandate SciKit image și OpenCV. Pentru audio există Librosa, iar pentru implementarea algoritmilor de deep learning se apelează la TensorFlow, Keras sau PyTorch. Când vine vorba de utilizare în zona științifică se folosește Sci-Py, iar în vizualizarea datelor se utilizează Matplotlib, Sci-Kit și Seaborn.


Sursa foto: Unsplash


Ideea e însă că, la fel ca tot ce-am detaliat până acum, nici ML nu e limitat la un singur limbaj de programare. Pe dispozitivele Apple, de exemplu, odată cu primul procesor cu neural engine (introdus cu iPhone X), compania a introdus și Core ML pentru astfel de aplicații. Implicit, acesta e folosit cu Xcode, că Apple lucrează un pic diferit de Android și alte companii. Totodată, Java începe să câștige popularitate în fața R și Python când vine vorba de ML. Ajută enorm aici și că nu e nevoie să înveți ceva nou, dacă tot știi limbajul. Unelte open source pentru procesare big data, ca Hadoop sau Spark, sunt scrise în Java. Iar JavaML e o librărie ML built-in. Și ca avantaj pentru Java, scalabilitatea e facilă.

Cum în prezent, dar și în următorul deceniu, vorbim de computere care iau orice formă, și aplicațiile vor deservi un număr mai mare sau mai mic de utilizatori. În acest sens merită amintit un alt startup românesc care a venit cu o idee care poate fi salvatoare de vieți. E vorba de XVision. La începutul anului, startup-ul a anunțat că platforma sa medicală capabilă să analizeze radiografiile pulmonare cu ajutorul inteligenței artificiale a debutat, în premieră în România, la Spitalul Clinic Județean de Urgență “Pius Brînzeu" din Timișoara.

Cum produsul se bazează pe algoritmi de machine learning, a fost folosit ca limbaj de programare Python, iar ca frameworks de lucru au apelat la Fastai, PyTorch și Keras. Cum spuneam mai sus, și aici inteligență artificială vine să preia sarcinile repetitive și să reducă o posibilă eroare umană cauzată de neatenție sau oboseală. Totodată, medicii care ar trebui să se ocupe de aceste aspecte repetitive se pot concentra pe aspecte mai complexe ale diagnosticării și, implicit, tratării.

Startup-ul se bazează pe identificare prin “object detection", astfel încât să localizeze patologiile în radiografii și pe “multi-label classification" pentru clasificarea patologiilor respective. În cazul radiografiilor toracice algoritmul poate detecta 17 patologii.

Creierul uman, replicat pentru “roboți"

De fiecare dată când ceva devine “neural", ce ar vrea fiecare producător sau dezvoltator să transmită e că e un pic mai aproape de creierul uman. Modul în care aceste organism biologic funcționează e fascinant și extrem de dificil de replicat în 0 și 1 și siliciu. Dar tocmai aceste demersuri de-a copia felul în care gândim ne-a dus, în prezent, la câteva reușite importante și la unele chiar și mai mari de atât pe termen lung.

În cazul primului procesor Apple cu procesare neurală, pe iPhone X, una dintre funcționalități era pentru sistemul Face ID care recunoaște fața utilizatorului printr-un sistem de câteva zeci de mii de puncte infraroșii. Și procesarea se face aproape instant pe dispozitiv. De cealaltă parte, menținând comparația cu ce se întâmplă pe Android, Google a venit cu o propunere la fel de interesantă: computational photography. În română n-are un sens prea mare, dar în engleză e practic revoluția în fotografie și videografie care era de așteptat pentru acest secol.

În primă fază, fotografia și videoul au trecut de la filmul fizic la senzorul digital. Deși sunt diferențe fizice mari între o cameră foto dedicată și camera de pe un telefon, în anumite condiții telefonul poate genera imagini la fel de bune. Și aici intervin atât machine learning, cât și fotografia creată, la propriu, pe calculator.

În 2015, Google a anunțat aplicația nouă Photos și-o opțiune extraordinară: stocare nelimitată a pozelor și videourilor tale. Recent, a anunțat că acea opțiune dispare din iunie 2021. Totuși, între cele două momente s-a întâmplat un lucru: Google a lansat seria de telefoane Pixel. Primul n-a oferit nimic ieșit din comun, dar de la al doilea până în prezent au ajuns să fie recunoscute pentru calitatea foarte bună a fotografiilor. Fără a avea însă senzori ieșiți din comun. Și toate acestea datorită computational photography și unei baze de date imense pentru a verifica ce e o imagine bună, cum trebuie să arate cerul, ce e prea mult verde și cum arată tonurile de culoare ale pielii.

Prin fotografie e cel mai ușor de explicat de ce machine learning, această componentă a inteligenței artificiale, va defini și redefini computerul modern. Cipurile sunt mai mici și mai performante ca niciodată, pot fi introduse atât în boxe inteligente, cât și în ceasuri smart, ca să nu mai zic de telefoane și computere, iar toate acestea pot învăța câte ceva despre noi, utilizatorii. Așa cum dezvoltarea web de la începutul anilor 2000 a adus programarea în atenția multora, așa e ML în prezent și ce se poate face în mixul dintre software și hardware, pentru că unul fără celălalt nu pot exista în acest domeniu.

Cum tot am ajuns la dezvoltare web, chiar și comerțul online e un domeniu care poate fi îmbunătățit de machine learning. O primă idee, aplicată și de startup-ul românesc MorphL, e ca magazinele să-și înțeleagă mai bine clienții. Compania folosește algoritmi ML și big data, practic o trecere prin datele analitice colectate deja de jucători din e-commerce, ca să vine cu evaluări și prognoze despre evoluția clienților, momentele în care sunt activi, de ce renunță la coșuri de cumpărături, pe ce pagini sau produse stau cel mai mult și mult mai multe. Astfel, în timp ce toate aceste date sunt disponibile într-un program clasic de analytics (ca cel oferit de Google sau ca cel de la Chartbeat), compania rezolvă dificultatea analizării unei cantități atât de mari de date, apoi interpretează rezultatele cu ML.

În fine, în zona de comerț online, dar cu o abordare un pic diferită, e și Innoship. Acesta e un startup românesc care optimizează interacțiunile dintre retaileri și curieri și promote eficientizarea costurilor serviciilor cu până la 25% și creșterea performanței de livrare cu până la 15%. Practic, când vorbim de comerț online, vorbim de un set de date care în comerțul clasic nu există. Totodată, vorbim și de anumite componente cruciale pentru această ramură economică: găsirea produsului în depozit și livrarea acestuia către client. Dacă în fiecare etapă din comerțul online se poate eficientiza procesul, atunci poate fi un câștig pentru toate părțile implicate. În zona aceasta activează Innoship.

Algoritmii ML folosiți de companie analizează performanța diferitelor opțiuni de livrare din întreaga arie geografică relevantă și punctele de livrare ale unui retailer pentru a aloca comenzile de livrare pe baza unor criterii personalizate. În august 2020, cu câteva luni înainte de Black Friday, compania a ajuns să gestioneze circa 20.000 de comenzi zilnice; asta la doar câteva luni de la lansarea oficială a soluției.

Atât în industrie (de orice natură ar fi ea), cât și pentru clientul final, instrumentele care țin de sfera inteligenței artificiale reprezintă următorul nivel al îmbunătățirii relației noastre cu tehnologia, dar și îmbunătățirea diverselor procese cotidiene prin tehnologie. Și uite încă o recomandare: Zoom Report. Un startup românesc care a construit o platformă cu informații pentru cetățeni. Practic, centralizează datele din surse publice ca să găsești ușor ce cauți. Peste toate acestea, uite o cifră interesantă: Uniunea Europeană pune la bătaie 1,5 miliarde de euro.

E o finanțare europeană pentru cercetare și inovare în domeniul AI (creștere cu 70% a fondurilor în comparație cu perioada precedentă). Obiectivul este de a atrage în UE investiții în materie de AI în valoare de peste 20 de miliarde euro pe an în următorul deceniu. Dacă nu era deja destul de clar direcția în care tehnologia se dezvoltă.








Citeste doar ceea ce merita. Urmareste-ne si pe Facebook si Instagram.

















6833 vizualizari

  • +2 (2 voturi)    
    erata (Miercuri, 2 decembrie 2020, 15:44)

    ebarbu [utilizator]

    "Totodată, Java începe să câștige popularitate în fața R și Python când vine vorba de ML." - sunt mai multe aberatii in textul tau pe acest subiect, dar asta este una dintre cele mai mari. Nu ar strica o documentare mai serioasa asupra subiectului, intelegerea mai buna a conceptelor.....desi este laudabil demersul, nu ne prea aplecam serios asupra acestui domeniu
  • +1 (1 vot)    
    Da, avem multe lucruri care se intampla in IT, (Miercuri, 2 decembrie 2020, 16:06)

    clint [utilizator]

    dar nu putem sa intelegem pe deplin implicatiile.
    Pe moment, in plina pandemie, IT-ul ne ajuta, dar pe termen lung?
    Ne va scapa de incalzirea globala, de suprapopulare, de pierderea locurilor de munca, saracie, somaj, de politicieni corpupti si minicnosi ?

    Eu cred ca nu prea. In cel mai bun caz, IT-ul este o unealta, care poate fi folosita intr-un mod bun, sau intr-un mod rau. La fisiunea nucleara e simplu: bun e reactor nuclear, deci pasnic, rau e bomba atomica.
    La AI, e greu de spus ce inseamna bine si ce inseamna rau.
    E bine ca ii dam noi, de buna voie si nesiliti de nimeni masinii toate datele pe care le avem, de LENE, sa faca treaba noastra ?
    Hai, cu munca fizica mai intelegem, dar cand vom da si munca cealalta, noua ce ne mai ramane ? Desene pe asfalt? Ne vom trezi toti "creativi", in sfarsit liberi ? Eu nu cred.
    • 0 (0 voturi)    
      Corecta observatie (Miercuri, 2 decembrie 2020, 19:46)

      moto33 [utilizator] i-a raspuns lui clint

      Probabil vom regresa si ca intelect unii dintre noi, iar noua clasa de "proletariat digital" va fi de machine learning engineer/data scientist, cunostiintele de AI devenind un skill de baza.

      Cei mai intelepti dintre noi putem estima care vor fi joburile viitorului si vom evita sa ne scolim in meserii redundante.


Abonare la comentarii cu RSS

Top 10 articole cele mai ...



Hotnews
Agenţii de ştiri

Siteul Hotnews.ro foloseste cookie-uri. Cookie-urile ne ajută să imbunatatim serviciile noastre. Mai multe detalii, aici.



powered by
developed by