Masinile autonome si o (falsa?) problema filozofica - Ar trebui singure sa decida ca e ok sa omori un om, pentru a salva cinci oameni?
Problema de etica este cunoscuta: un tramvai merge necontrolat şi în calea sa se afla cinci persoane care nu pot evita impactul. Insa exista o maneta pe care, daca o actionezi, poti muta tramvaiul pe o alta cale ce l-ar directiona spre o singura persoana. Intrebarea este: ar trebui sa actionezi aceasta maneta pentru a salva cele cinci persoane, omorand insa o persoana.
Daca transpunem problema in lumea masinilor autonome situatia ar fi urmatoarea: masina se indreapta spre un grup de cinci pietoni si singurul mod in care ii poate evita este cazand in prapastie, consecinta fiind ca pasagerul din masina va muri, iar cei cinci pietoni scapa.
Intrebarea este ce decizie ar trebui sa ia masina autonoma. ar trebui sa se conformeze curentului utilitarist care spune ca important e sa fie salvati cat mai multi oameni si atunci cei cinci trebuie sa scape?
Altii spun ca abordarea utilitarista este cruda si ca ar fi culmea ca masina autonoma sa il ucida pe cel din ea, iar astfel de decizii esentiale nu ar trebui niciodata luate de un computer.
Solutia este complicata si trebuie tinut cont si de responsabilitatea morala, nu doar de consecinte. Ar trebui masina programata sa se comporte altfel cand duce de exemplu patru pasageri si risca sa loveasca trei pietoni? `Ar conta daca in masina se afla si copii, in ideea ca viata unui copil ar cantari mai mult decat cea a unui adult?
In plus, masinile autonome, oricat de avansat ar fi soft-ul de pe ele, nu poate judeca intentiile pietonilor si deci nu poate stii daca unul dintre ei nu paseste intentionat in fata masinii.
Insa nu filozofii vor oferi o solutie pentru o astfel de situatie ingrata si nici nu este treaba lor. Din fericire, chiar si dupa 2050, cand drumurile vor fi pline de masini autonome, astfel de situatii vor fi extrem de rare. Iar cand se vor petrece, cu siguranta ca vor exista mai multe variante de iesire din ele, in afara de cele doua variante letale.
In plus, la multe dintre masinile autonome va exista un switch care va permite soferului sa preia instant controlul masinii, iar in zonele in care proprietarul nu are incredere in masina autonoma, va putea sa intervina.

Paradoxul pandemiei: internările s-au prăbușit în 2020, dar numărul infecțiilor nosocomiale a crescut față de 2019 - date oficiale la nouă luni
De ce căutăm urme de viață pe Marte și ce ar însemna pentru omenire dacă le-am găsi
Găurile negre supermasive, formate din materie întunecată? / Internauții au decodat mesajul secret al roverului Perseverance / GTA ar putea fi interzis în SUA /
S-au apucat mai mulți români de yoga în pandemie? „De acasă se muncește mai mult decât de la birou. Faptul că urmează ora de yoga, mă forțează să-mi închid laptopul”
INTERVIU Un an de la primul caz de COVID-19 în România / De ce a scăzut drastic numărul îmbolnăvirilor în ultimele 2-3 luni și ce ne așteaptă: Al treilea val nu va fi de intensitatea celui de-al doilea / Testele rapide ar trebui distribuite gratuit medicilor de familie, am ști clar numărul real de cazuri
https://en.wikipedia.org/wiki/Trolley_problem
1. Un computer actual reactioneaza mult mai rapid si mai precis decat un om, deci comutarea in mod manual ar fi cea mai proasta varianta
2. Conform regulilor de circulatie in toate cazurile de trafic pentru a exista o asemenea situatie cineva trebuie sa incalce regulile de circulatie; sa zicem ca ori pietonii traverseaza prin zona nepermisa, ori pietonii traverseaza regulamentar dar masina tocmai face o manevra neregulamentara (lucru interzis de programarea pilotului automat, deci putin probabil). Daca se pune intrebarea la modul utilitarist, obtinem un raspuns complet imoral: sa virezi in prapastie si sa omori un pasager nevinovat pentru a salva 5 pietoni care si-au pus singuri viata in pericol traversand neregulamentar e complet imoral.
Singurul lucru care trebuie facut este de identificat, analizat si programat exceptiile, de genul: "exista un caz in care toata lumea merge regulamentar si totusi pot intra in coliziune?". Sunt cateva prin lumea a treia, gen lipsa marcaje sau semafor de pietoni defect si verde pentru masini, dar astea pot fi rezolvate usor (ex. bucla de feedback: daca semaforul de pietoni nu functioneaza atunci cel de masini intra pe galben intermitent sau se opreste si atunci devine trecere de pietoni nesemaforizata).
În plus, aș adăuga că mașina autonomă tratează orice acțiune pe mai multe niveluri de importanță și securitate. Nu calculează fiecare dintre toate cele 99999999999 de posibilități. Deja se lucrează la un standard internațional, astfel încât orice companie dezvoltatoare de mașini / software autonome să fie obligată să implementeze aceste niveluri. Datorită acestor standarde, mașina va încetini, va ocoli, va trage pe dreapta, etc., (va lua cele mai bune decizii), într-un timp de reacție mult mai scurt decât cel al omului, astfel încât nu se va ajunge la situația descrisă de autorii articolului. În cazul în care din întâmplare, se ajunge, cineva nu respectă regulile, așa cum a scris și Adrian.
Și toate mașinile au algoritmi de învățare și trimit datele în cloud, iar toate celelalte mașini învață din experiențele altora. Dacă pare SF, așa ceva face Google deja, de câțiva ani. Au peste 1.000.000 km parcurși, fără accidente provocate de mașinile autonome.
Probabil cei mai multi vor omori cele 5 persoane, dar vor si si unii care vor prefera sa moara ei.
Masina va lua si ea o decizie, insa mult mai rapid si bazat pe un algoritm, poate chiar va salva pe toata lumea. Sau poate ca ii va omori pe toti, la fel cum ar putea si persoana sa o faca.
De aceea parea mea e ca este irelevant. La fel si cu masinile programate sa omoare oameni. Si un om poate sa fie "programat" sa omoare oameni conducand o masina. Desigur, o sa ziceti ca daca masina va fi condusa automat, cine raspunde de ce face? Bineinteles, cel care a programat-o sa omoare.
Eu zic ca pana una alta ar trebui sa faca ei masinile autonome sa devina realitate cotidiana si abia dupa aceea sa isi puna probleme filosofice de acest gen...
Nu cred ca sunt atat de multi incat sa faca o astfel de masina economic rentabila!
.
De exemplu, cineva mai sus arata ca cei care trec prin loc nemaract merita sa moara; dara daca este o femeie gravida cu un carucior ?! ii omoram pentru a salva viata unui batran cu o speranta de viata de cateva luni (sa zicem) ?
Apoi problema se iveste si in locuri in care nu te astepti. In curnad robotii vor face interventii chirurgicale. Daca un paciebnt cu putine sanse (dar totusi cu ceva sanse) poate fi folosit pentru prelevarea de organe cu care salvam 5 alti pacienti cu sanse bune ... cum procedam ?! robotul e prost, face ce ii spunem. Asadar, va intreb CE il programam sa faca ?