Masinile autonome si o (falsa?) problema filozofica - Ar trebui singure sa decida ca e ok sa omori un om, pentru a salva cinci oameni?

de Vlad Barza     HotNews.ro
Marţi, 3 noiembrie 2015, 13:59 Magazin


Masini autonome
Foto: Bosch
​Vor mai trece probabil 25-30 de ani pana cand in jurul nostru vor fi multe masini capabile sa se conduca singure, iar daca aceste masini vor fi 100% sigure,  ele ar putea fi puse in fata unui paradox. Ce ar trebui sa faca daca intr-o situatie, intr-o fractiune de secunda, ar trebui sa aleaga intre a lovi un grup de cativa oameni sau a-i evita, insa cu pretul omorarii pasagerului din masina. Cei de la Quartz au pus problema, pornind de un experiment de etica. Din fericire scenariul este unul mai apropiat de filmele SF si va fi intalnit extraordinar de rar in trafic.

Problema de etica este cunoscuta: un tramvai merge necontrolat şi în calea sa se afla cinci persoane care nu pot evita impactul. Insa exista o maneta pe care, daca o actionezi, poti muta tramvaiul pe o alta cale ce l-ar directiona spre o singura persoana. Intrebarea este: ar trebui sa actionezi aceasta maneta pentru a salva cele cinci persoane, omorand insa o persoana.

Daca transpunem problema in lumea masinilor autonome situatia ar fi urmatoarea: masina se indreapta spre un grup de cinci pietoni si singurul mod in care ii poate evita este cazand in prapastie, consecinta fiind ca pasagerul din masina va muri, iar cei cinci pietoni scapa.

Intrebarea este ce decizie ar trebui sa ia masina autonoma. ar trebui sa se conformeze curentului utilitarist care spune ca important e sa fie salvati cat mai multi oameni si atunci cei cinci trebuie sa scape?

Altii spun ca abordarea utilitarista este cruda si ca ar fi culmea ca masina autonoma sa il ucida pe cel din ea, iar astfel de decizii esentiale nu ar trebui niciodata luate de un computer.

Solutia este complicata si trebuie tinut cont si de responsabilitatea morala, nu doar de consecinte. Ar trebui masina programata sa se comporte altfel cand duce de exemplu patru pasageri si risca sa loveasca trei pietoni? `Ar conta daca in masina se afla si copii, in ideea ca viata unui copil ar cantari mai mult decat cea a unui adult?

In plus, masinile autonome, oricat de avansat ar fi soft-ul de pe ele, nu poate judeca intentiile pietonilor si deci nu poate stii daca unul dintre ei nu paseste intentionat in fata masinii.

Insa nu filozofii vor oferi o solutie pentru o astfel de situatie ingrata si nici nu este treaba lor. Din fericire, chiar si dupa 2050, cand drumurile vor fi pline de masini autonome, astfel de situatii vor fi extrem de rare. Iar cand se vor petrece, cu siguranta ca vor exista mai multe variante de iesire din ele, in afara de cele doua variante letale.

In plus, la multe dintre masinile autonome va exista un switch care va permite soferului sa preia instant controlul masinii, iar in zonele in care proprietarul nu are incredere in masina autonoma, va putea sa intervina.






Citeste doar ceea ce merita. Urmareste-ne si pe Facebook si Instagram.















.*.


3722 vizualizari

  • +1 (1 vot)    
    :) (Marţi, 3 noiembrie 2015, 14:12)

    ion [anonim]

    Problema e veche si a fost pusa in discutie prima data de Philippa Foot in 1967. E interesant de citit.
    https://en.wikipedia.org/wiki/Trolley_problem
  • -6 (8 voturi)    
    sa ia o masina decizia sa omoare un om (Marţi, 3 noiembrie 2015, 14:31)

    oinf [anonim]

    este inaaceptabil, indiferent de cate motive ar putea fi gasite. De fapt nu masinile vor omori oamenii, ci tot oamenii din spate care le vor programa sa faca asta.
    • +6 (6 voturi)    
      Comentariu sters de utilizator (Marţi, 3 noiembrie 2015, 14:40)

      [anonim] i-a raspuns lui oinf

      • +1 (1 vot)    
        imprevizibile (Marţi, 3 noiembrie 2015, 15:31)

        da [anonim] i-a raspuns lui

        .
  • +6 (6 voturi)    
    E mai simplu (Marţi, 3 noiembrie 2015, 14:36)

    AdrianBorza [utilizator]

    Raspunsul la problema e mult mai simplu decat pare, din 2 motive:
    1. Un computer actual reactioneaza mult mai rapid si mai precis decat un om, deci comutarea in mod manual ar fi cea mai proasta varianta
    2. Conform regulilor de circulatie in toate cazurile de trafic pentru a exista o asemenea situatie cineva trebuie sa incalce regulile de circulatie; sa zicem ca ori pietonii traverseaza prin zona nepermisa, ori pietonii traverseaza regulamentar dar masina tocmai face o manevra neregulamentara (lucru interzis de programarea pilotului automat, deci putin probabil). Daca se pune intrebarea la modul utilitarist, obtinem un raspuns complet imoral: sa virezi in prapastie si sa omori un pasager nevinovat pentru a salva 5 pietoni care si-au pus singuri viata in pericol traversand neregulamentar e complet imoral.

    Singurul lucru care trebuie facut este de identificat, analizat si programat exceptiile, de genul: "exista un caz in care toata lumea merge regulamentar si totusi pot intra in coliziune?". Sunt cateva prin lumea a treia, gen lipsa marcaje sau semafor de pietoni defect si verde pentru masini, dar astea pot fi rezolvate usor (ex. bucla de feedback: daca semaforul de pietoni nu functioneaza atunci cel de masini intra pe galben intermitent sau se opreste si atunci devine trecere de pietoni nesemaforizata).
    • +2 (2 voturi)    
      Bun răspuns (Marţi, 3 noiembrie 2015, 16:57)

      _CK_ [utilizator] i-a raspuns lui AdrianBorza

      De acord.

      În plus, aș adăuga că mașina autonomă tratează orice acțiune pe mai multe niveluri de importanță și securitate. Nu calculează fiecare dintre toate cele 99999999999 de posibilități. Deja se lucrează la un standard internațional, astfel încât orice companie dezvoltatoare de mașini / software autonome să fie obligată să implementeze aceste niveluri. Datorită acestor standarde, mașina va încetini, va ocoli, va trage pe dreapta, etc., (va lua cele mai bune decizii), într-un timp de reacție mult mai scurt decât cel al omului, astfel încât nu se va ajunge la situația descrisă de autorii articolului. În cazul în care din întâmplare, se ajunge, cineva nu respectă regulile, așa cum a scris și Adrian.

      Și toate mașinile au algoritmi de învățare și trimit datele în cloud, iar toate celelalte mașini învață din experiențele altora. Dacă pare SF, așa ceva face Google deja, de câțiva ani. Au peste 1.000.000 km parcurși, fără accidente provocate de mașinile autonome.
  • +2 (6 voturi)    
    Comentariu sters de utilizator (Marţi, 3 noiembrie 2015, 14:42)

    [anonim]

  • +3 (3 voturi)    
    irelevant (Marţi, 3 noiembrie 2015, 15:42)

    getmyextip [anonim]

    Paradoxul este irelevant deoarece si in cazul in care ar fi o persoana la volan si aceasa ar fi confruntata cu aceeasi situatie si va trebui sa ia o decizie, care de cele mai multe ori va tine de sansa.
    Probabil cei mai multi vor omori cele 5 persoane, dar vor si si unii care vor prefera sa moara ei.
    Masina va lua si ea o decizie, insa mult mai rapid si bazat pe un algoritm, poate chiar va salva pe toata lumea. Sau poate ca ii va omori pe toti, la fel cum ar putea si persoana sa o faca.
    De aceea parea mea e ca este irelevant. La fel si cu masinile programate sa omoare oameni. Si un om poate sa fie "programat" sa omoare oameni conducand o masina. Desigur, o sa ziceti ca daca masina va fi condusa automat, cine raspunde de ce face? Bineinteles, cel care a programat-o sa omoare.

    Eu zic ca pana una alta ar trebui sa faca ei masinile autonome sa devina realitate cotidiana si abia dupa aceea sa isi puna probleme filosofice de acest gen...
  • +1 (3 voturi)    
    Situatia nu e asa de complicata (Marţi, 3 noiembrie 2015, 16:21)

    mishu [anonim]

    De fapt eu cred ca se pierde din vedere un lucru foarte simplu: pentru ca cineva sa se afle intr-o astfel de masina, trebuie in principiu sa o cumpere. Cati ar da bani pe o masina care in anumite situatii decide ca tu esti pierderea mai mica si actioneaza in consecinta?
    Nu cred ca sunt atat de multi incat sa faca o astfel de masina economic rentabila!
    .
  • 0 (0 voturi)    
    Problema macazului (Marţi, 3 noiembrie 2015, 19:48)

    Petronius. [anonim]

    Mai devreme sau mai tarziu, aceasta situatie va trebui reglementata, pentru ca din zona evidentului, poate trece foarte usor intr-o zona gri, unde e dificil sa raspunzi.

    De exemplu, cineva mai sus arata ca cei care trec prin loc nemaract merita sa moara; dara daca este o femeie gravida cu un carucior ?! ii omoram pentru a salva viata unui batran cu o speranta de viata de cateva luni (sa zicem) ?

    Apoi problema se iveste si in locuri in care nu te astepti. In curnad robotii vor face interventii chirurgicale. Daca un paciebnt cu putine sanse (dar totusi cu ceva sanse) poate fi folosit pentru prelevarea de organe cu care salvam 5 alti pacienti cu sanse bune ... cum procedam ?! robotul e prost, face ce ii spunem. Asadar, va intreb CE il programam sa faca ?


Abonare la comentarii cu RSS
Întâlniri on-line | #deladistanță

Top 10 articole cele mai ...



Hotnews
Agenţii de ştiri

Siteul Hotnews.ro foloseste cookie-uri. Cookie-urile ne ajută să imbunatatim serviciile noastre. Mai multe detalii, aici.



powered by
developed by