Roboții nu mai sunt viitorul, dar în prezent - au pătruns în casă, în producție, în viața cotidiană, pe viață, pe pat, pe câmpul de luptă. Dar ce crede un robot militar când ucide o persoană? În cazul în care ucigașul robot simte ceva? Robotul sexual are dreptul de a refuza sexul? Conștiința dă robotului drepturile? Setați aceste și alte întrebări cu lideri filozofi internaționali cibernetici
Selmer Brinsjor, șef al Departamentului de Cercetare Cognitivă, Institutul Politic Rensselaer (New York, SUA):
Lucrez cu roboți în laboratorul meu - am o întreagă echipă de umanoizi mici peste care am pus experimente. Și acum încerc să-mi dau seama ce poate aduce umanoizii mei la sinucidere. Pun intrebari: poate un robot vrea sa-si inchida viata din aceleasi motive pe care le fac uneori oamenii - in viata nu are sens, am depresie si asa mai departe. Și o altă întrebare: putem, oameni, permiteți roboților să facă această sinucidere.
Voi întrebați: dar cum poate un robot să aibă depresie? Nu spun că un robot poate avea o lume interioară și că poate experimenta emoții. Nu, nu poate, pentru că nu are conștiință. Dar programăm roboți pentru a arăta 35 de stări emoționale diferite. Matematică pură. Dar, uneori, în matematică, ceva poate merge prost. Poate apărea o defecțiune și robotul poate începe să sufere depresie.
Permiteți-mi să vă explic despre emoții. De exemplu, un robot poate fuma o țigară, dar nu poate obține aceeași plăcere de la o persoană. Sau să luăm un exemplu cu schiurile. Ieri am plecat la schi. Și am simțit o mulțime de emoții - de la răpire indescriptibilă la frică ușoară. Dar astfel de experiențe nu pot fi descrise matematic și, prin urmare, nu pot fi programate. Robotul are 35 de stări emoționale, dar tocmai structura matematică a emoției, și nu emoția în forma sa pură.
Odată cu evoluția robotilor, ei vor deveni mai inteligenți și mai autonomi. Ei vor avea multe stări emoționale și, la un moment dat, se poate produce un eșec al sistemului, iar robotul ar putea să-și pună capăt vieții. Dar pentru oameni nu este benefic faptul că robotul se sinucide spontan - de ce ar trebui să ne pierdem roboții? Ei bine, vă imaginați, robotul la locul de muncă vă ajută să transportați cutii grele, apoi a venit brusc și a decis că nu dorește să trăiască și a fost ucis. Cine are nevoie de ea? Dacă dezvoltăm mașini cu adevărat autonome, ființe libere (și ne mișcăm în această direcție), atunci întrebarea cum să prevenim sinuciderea este o problemă foarte importantă.
Desigur, puteți impune anumite limitări asupra a ceea ce un robot poate sau nu poate face, dar este dificil - tu l-ai programat să fie liber și autonom. Desigur, puteți scrie programe simple - robotul poate face doar un pas înainte și doi în spate - și atunci nu vor mai exista astfel de probleme. Dar cine are nevoie de astfel de roboți? Vrem să creăm tehnologii mai inteligente, iar cele inteligente înseamnă cele independente.
Și apoi întrebarea: cum să investighezi dorința de sinucidere din punct de vedere matematic. Pe măsură ce noi, folosind matematica, proiectăm robotul astfel încât să nu se întâmple o defecțiune. Poate fi permis din punct de vedere etic ca un robot să vrea acest lucru deloc? Și cred că este inacceptabil din punct de vedere moral să se sinucidă în cazul unei depresii ușoare. Acesta este "Nu am vise", "Sunt plictisit la locul de muncă". Deoarece depresia este un astfel de lucru - astăzi există și mâine nu. Prin urmare, răspunsul la cercetarea noastră este acesta: în majoritatea cazurilor nu există, acest lucru este inacceptabil. Dar dacă robotul începe să pară că este atât de disfuncțional, de parcă nu există deloc, dacă creierul este pierdut ireversibil și nu mai este în corpul său, atunci bine, el poate fi ucis. Acum, întrebarea: cum să vă asigurați că robotul nu intră în această capcană, nu sa simțit mort? Încă nu am înțeles acest lucru, dar vom continua să studiem. Este curios să transformi etica în matematică.
Anterior, părea ciudat pentru oameni să se gândească la furnizarea robotului cu norme etice, dar acum tot mai mulți oameni înțeleg necesitatea acestui lucru.
Nu este înfricoșător pentru mine să fac ceea ce fac, nu este înfricoșător pentru viitorul nostru? Nu, crede-mă, dacă nu rezolvi toate aceste probleme acum și lăsați totul într-o stare haotică, atunci va fi cu adevărat înfricoșător. Dacă construim mașini autonome și nu gândim în prealabil cum să le protejăm de fapte rele, atunci avem probleme reale. Atunci ne pot răni și chiar ne pot ucide. De aceea este atât de important să lucrăm la etica roboților astăzi. Când copilul crește și are un intelect, nu credeți: "Ei bine, îmi voi face griji pentru educația lui mâine". Este important să urmăriți aceste procese la timp. Și îmi fac griji că oamenii de astăzi nu înțeleg pe deplin importanța acestei probleme.
Noel Sharkey, arbitru șef al emisiunii BBC de la Bătălia robotilor, director al Comitetului Internațional pentru Controlul Roboșilor de Combatere (Marea Britanie):
Ce discutăm acolo? Problema principală este modul în care noile tehnologii se confruntă cu dreptul internațional umanitar, care prescrie regulile de război. Nu avem nici o încredere că roboții de luptă independenți vor respecta aceste reguli.
Un alt principiu - principiul proporționalității. Nu-mi place acest principiu, dar esența lui se reduce la faptul că, dacă ucizi populația civilă a inamicului, numărul de morți trebuie să fie direct proporțional cu superioritatea lor militară. Și nu există un program care să poată calcula acest lucru în avans - doar un comandant cu experiență în domeniu poate lua o astfel de decizie.
Există un alt argument filosofic, ontologic. Se crede că nu este vrednic de o persoană - să permită unui robot să omoare o altă persoană. Iată diferența esențială dintre momentul în care un robot ucide o persoană și când o persoană ucide o persoană. Atunci când o persoană ucide o persoană, el petrece un minut pentru a instrui arma, pentru a realiza că acum el este privarea unei persoane de viață, și în cele din urmă să-l omoare. Dar când un robot ucide o persoană, el nu crede, nu realizează nimic, pentru că nu are conștiință. Este meritat să înlăture în mod inconștient o altă persoană a vieții?
Un alt argument este consecvent. Suporterii acestei abordări cred că dacă cel puțin o parte a armatei va fi înlocuită cu roboți, mai puțini oameni vor muri. Dar oponenții acestei abordări spun că aceasta este o abordare teribil de egoistă: consecințialismul gândește doar la soldații săi, dar, în general, trebuie să ne gândim la toată lumea, în caz contrar toată securitatea internațională este amenințată.
Peter Asaro, profesor, Departamentul de Filosofie a Științei, Tehnologiei și Mass-media la New School (New York, SUA):
Întrebarea care mă îngrijorează cel mai mult: Putem permite roboților să comită violență intenționată? Este permis în lumea noastră să oferim un robot cu puterile unui gardian sau al unei armate? Am scris despre acest lucru cu o duzină de articole științifice și acum am preluat cartea. Când un astfel de precedent este creat, noi, toată omenirea, ne aflăm pe cealaltă parte a oglinzii. Și cum reglementează roboții, cum să înțelegem ce forme de violență se pot comite împotriva noastră și care dintre ele nu fac asta?
Pentru a ucide deloc nu este bine, dacă robotul sau persoana ucide. Dar aici este o chestiune de formare a unei întregi industrii a cărei sarcină va fi optimizarea procesului de ucidere, uciderea oamenilor chiar mai eficient. Diferența dintre momentul în care un robot ucide o persoană sau o persoană a unei persoane este după cum urmează: în mod tradițional se crede că o persoană poate folosi violența numai dacă propria sa viață este în pericol. Roboții nu sunt capabili să evalueze dacă viața lor este în pericol. Și putem programa roboți să ucidă, dar în măsura în care este moral - o întrebare deschisă. Roboții nu sunt oameni, nu au dreptul la autoapărare.
Sper că în viitorul apropiat ONU va semna un acord care va reglementa cumva capabilitățile roboților de luptă. Acum totul merge la asta. În cadrul Organizației Națiunilor Unite, experți la nivel guvernamental se întâlnesc deja în acest scop. Cred că în doi sau trei ani vor putea semna contractul. Problema este însă că, în doi sau trei ani, țările pot dezvolta noi tipuri de roboți de luptă, pot investi în ea o mulțime de bani și nu vor să renunțe la roboți. Apoi semnarea acestui tratat va fi în pericol.
Jason Millar, profesor la Universitatea Carleton (Ottawa, Canada), colaborează cu Universitatea Stanford în proiectul de cercetare "Programarea etică a vehiculelor fără pilot":
Un subiect popular este drepturile robotului. Ce se întâmplă atunci când robotul are conștiință? Ce drepturi aveți nevoie pentru ao oferi? Dar această problemă este mai interesată astăzi de fanii Sci-Fi decât de filozofi. Deși, dacă citiți filozoful Oxford Nick Bostrom, el adoră acest subiect și primește granturi excelente de cercetare. Dar când vorbiți cu inginerii care generează cu adevărat roboți și inteligență artificială, ei nu se obosesc cu astfel de întrebări: ei cred că răspunsul este "niciodată" sau "foarte curând". Dar acesta este un subiect foarte fierbinte pentru mass-media. Și oricât de nepractic ar fi, ei scriu multe despre asta.
Charles Ess, director universitar al Centrului pentru Cercetare în Inovare în Media, Universitatea din Oslo (Oslo, Norvegia):
Când vorbim despre relația unei persoane și a unui robot de sex, apare întrebarea cu privire la drepturile robotului. Mulți oameni spun că, pe măsură ce robotul devine autonom, va fi necesar să recunoaștem unele dintre drepturile lor fundamentale la respect. Și apoi întrebarea: dacă sunteți un robot de sex, dar astăzi nu doriți sex, puteți nega o persoană? Și apoi întrebarea este: dacă un robot de sex neagă o persoană, poate o persoană să-l forțeze forțat? Poate un robot, după un astfel de incident, să cheme un violator în instanță?
Cotatie Constiinta - este ca un dihor: fie adormit - fie muscatura