Morálka robotov

12. okt. 2016 • Technické vedy

Morálka robotov

Rozvoj technológií prináša nové výzvy aj v uplatňovaní etických princípov. Všeobecne platné etické princípy nie je možné jednoducho aplikovať na situácie súvisiace s robotmi a autonómnymi zariadeniami. Roboetika sa zaoberá uplatňovaním etických princípov pri vývoji robotov a všeobecne pri vývoji umelých inteligentných systémov.

Robot, od ktorého očakávame, že sa bude správať morálne, musí poznať, čo je správne a čo nie je správne. 

Dnešné roboty sú vybavené pokročilými mechatronickými systémami, zložitými senzormi a predovšetkým sofistikovaným softvérom. Roboty nám pomáhajú v mnohých oblastiach – medicína, priemyselná výroba, záchranárske práce a pod. Okrem toho slúžia aj na zábavu a potešenie. Cieľom výskumníkov v robotike je zvyšovať autonómnosť robotov, pretože sa tým zvyšujú možnosti ich použitia v reálnom svete. Nejde len o autonómne vozidlá, vzdušné či podvodné roboty, ale aj o množstvo servisných robotov. Výskumníci v oblasti robotiky musia prijať morálnu zodpovednosť za výsledky svojej práce a už pri vývoji systémov s umelou inteligenciou zabezpečiť, aby ich konanie a správanie bolo v súlade s etickými princípmi.

Podľa štatistík ľudia v Európe akceptujú využívanie robotov v nebezpečnom prostredí, prípadne v prostredí, do ktorého sa ľudia nemôžu dostať, napríklad pri výskume vesmíru, výrobe v zdraviu ohrozujúcom prostredí, vyhľadávacích a záchranných operáciách, na vojenské a bezpečnostné účely. Na druhej strane je rozšírený názor, že roboty by sa nemali využívať – dokonca ich využitie by sa malo zakázať – pri starostlivosti o deti, starších a hendikepovaných ľudí. Je však dôležité, aby ľudia akceptovali prítomnosť robotov, aby sa ich nebáli, aby dokázali využiť ich potenciál na zlepšenie života a prostredia, v ktorom žijú. Dôležitou úlohou výskumníkov, vývojárov, konštruktérov, ale predovšetkým programátorov je preto už dopredu zvažovať potenciálne riziká a vyvíjať roboty, ktoré budú pre ľudí prijateľné a budú k nim priateľské. Povedané aj inak – roboty, ktoré budú morálne.

S robotmi sa budeme stretávať stále častejšie

Ako vyvíjať morálneho robota?

Predpokladajme, že robot je vybavený dostatočnou umelou inteligenciou a schopnosťou učiť sa. Ak chceme robota učiť, čo je a čo nie je správne, potrebujeme nájsť vhodný formalizovaný zápis morálneho správania. Táto úloha nie je jednoduchá a samotní robotici ani vedci z oblasti umelej inteligencie ju nedokážu vyriešiť. Morálne hodnoty sú totiž rôzne pre rôzne typy ľudí. Súvisia s kultúrnym a spoločenským zázemím, s politickým a náboženským prostredím, s rodinnými a spoločenskými zvyklosťami. Rovnako sa líši aj dôležitosť, akú jednotlivci prikladajú dodržiavaniu daných noriem. Kým pre určitých ľudí a pre určité krajiny je napríklad úplne neprijateľné, aby sa na pláži opaľovali nahí ľudia, pre iných ide o prirodzené správanie a nepredpokladajú, že by sa ním mohli kohokoľvek dotknúť.

Americkí výskumníci Bertram Malle a Matthias Scheutz pracujú so svojimi tímami na vytvorení akéhosi základného slovníka morálky. Vychádzajú z toho, že pre určitú konkrétnu situáciu je možné vytvoriť všeobecne akceptovateľnú množinu etických princípov a noriem. Tieto normy je možné ohodnotiť z hľadiska ich dôležitosti pri rozhodovaní o tom, čo je správne a morálne. Predpokladajú, že keby získali takýto popis dostatočného množstva situácií, vedeli by vytvoriť sémantickú sieť morálnych princípov naviazaných na konkrétny kontext (krajina, doba, situácia). Takáto sieť by sa dala vložiť do robota a slúžila by na podporu jeho rozhodovania v danom kontexte morálne.

V súčasnosti však ešte nie sme tak ďaleko a vedci sa zaoberajú jednoduchšími problémami, ktoré im pomôžu overiť koncept, ako posilniť autonómne rozhodovanie robotov a súčasne zachovať ich správanie bezpečné a morálne. Experimentuje sa napríklad s uplatňovaním klasických zákonov robotiky, ako ich formuloval Isaac Asimov.

Zákony robotiky sformulované Isaacom Asimovom v poviedke Runaround z roku 1942:

  1. Robot nesmie zraniť človeka, ani svojím nekonaním dopustiť, aby bol človek zranený.
  2. Robot musí poslúchať príkazy dané človekom s výnimkou prípadov, keď takýto príkaz je v rozpore so zákonom číslo 1.  
  3. Robot musí chrániť vlastnú existenciu dovtedy, kým nedôjde ku konfliktu so zákonom číslo 1 alebo 2.

 

Autor: Ing. Ivana Budinská, PhD., Ústav informatiky SAV

Foto: Fotky&Foto

Uverejnila: ZVČ

 

Viac sa o roboetike, ako aj o iných zaujímavých témach, sa dočítate v časopise Quark (číslo 10/2016), ktorý nájdete v novinových stánkoch alebo si ho môžete predplatiť v elektronickej alebo papierovej verzii na www.quark.sk.

Súvisiace:

Hore
kúpa časopisov jún 2016
Extrapolácie 2017
QUARK
téma mesiaca
Aurelium - centrum vedy
Veda v Centre
Prechod VK na VND - jeseň
TAG QUARK
TAG Ženy vo vede
TAG Spektrum vedy
TAG Slovenská veda
TAG História
TAG Rozhovor
TAG Publikácia
TAG Zaujímavosti vo vede
TAG Centrum vedy
TAG Mládež
banner záhrady
Zaujímavosti vo vede
Bryndza pôvodne vznikla z potreby uchovať čerstvo nadojené ovčie mlieko.
Zistite viac