Preskočiť na obsah Preskočiť na pätu (NCP VaT)
VEDA NA DOSAH – váš zdroj informácií o slovenskej vede

Morálka robotov

VEDA NA DOSAH

ilustračné foto

Rozvoj technológií prináša nové výzvy aj v uplatňovaní etických princípov. Všeobecne platné etické princípy nie je možné jednoducho aplikovať na situácie súvisiace s robotmi a autonómnymi zariadeniami. Roboetika sa zaoberá uplatňovaním etických princípov pri vývoji robotov a všeobecne pri vývoji umelých inteligentných systémov.

Robot, od ktorého očakávame, že sa bude správať morálne, musí poznať, čo je správne a čo nie je správne. 

Dnešné roboty sú vybavené pokročilými mechatronickými systémami, zložitými senzormi a predovšetkým sofistikovaným softvérom. Roboty nám pomáhajú v mnohých oblastiach – medicína, priemyselná výroba, záchranárske práce a pod. Okrem toho slúžia aj na zábavu a potešenie. Cieľom výskumníkov v robotike je zvyšovať autonómnosť robotov, pretože sa tým zvyšujú možnosti ich použitia v reálnom svete. Nejde len o autonómne vozidlá, vzdušné či podvodné roboty, ale aj o množstvo servisných robotov. Výskumníci v oblasti robotiky musia prijať morálnu zodpovednosť za výsledky svojej práce a už pri vývoji systémov s umelou inteligenciou zabezpečiť, aby ich konanie a správanie bolo v súlade s etickými princípmi.

Podľa štatistík ľudia v Európe akceptujú využívanie robotov v nebezpečnom prostredí, prípadne v prostredí, do ktorého sa ľudia nemôžu dostať, napríklad pri výskume vesmíru, výrobe v zdraviu ohrozujúcom prostredí, vyhľadávacích a záchranných operáciách, na vojenské a bezpečnostné účely. Na druhej strane je rozšírený názor, že roboty by sa nemali využívať – dokonca ich využitie by sa malo zakázať – pri starostlivosti o deti, starších a hendikepovaných ľudí. Je však dôležité, aby ľudia akceptovali prítomnosť robotov, aby sa ich nebáli, aby dokázali využiť ich potenciál na zlepšenie života a prostredia, v ktorom žijú. Dôležitou úlohou výskumníkov, vývojárov, konštruktérov, ale predovšetkým programátorov je preto už dopredu zvažovať potenciálne riziká a vyvíjať roboty, ktoré budú pre ľudí prijateľné a budú k nim priateľské. Povedané aj inak – roboty, ktoré budú morálne.

S robotmi sa budeme stretávať stále častejšie

Ako vyvíjať morálneho robota?

Predpokladajme, že robot je vybavený dostatočnou umelou inteligenciou a schopnosťou učiť sa. Ak chceme robota učiť, čo je a čo nie je správne, potrebujeme nájsť vhodný formalizovaný zápis morálneho správania. Táto úloha nie je jednoduchá a samotní robotici ani vedci z oblasti umelej inteligencie ju nedokážu vyriešiť. Morálne hodnoty sú totiž rôzne pre rôzne typy ľudí. Súvisia s kultúrnym a spoločenským zázemím, s politickým a náboženským prostredím, s rodinnými a spoločenskými zvyklosťami. Rovnako sa líši aj dôležitosť, akú jednotlivci prikladajú dodržiavaniu daných noriem. Kým pre určitých ľudí a pre určité krajiny je napríklad úplne neprijateľné, aby sa na pláži opaľovali nahí ľudia, pre iných ide o prirodzené správanie a nepredpokladajú, že by sa ním mohli kohokoľvek dotknúť.

Americkí výskumníci Bertram Malle a Matthias Scheutz pracujú so svojimi tímami na vytvorení akéhosi základného slovníka morálky. Vychádzajú z toho, že pre určitú konkrétnu situáciu je možné vytvoriť všeobecne akceptovateľnú množinu etických princípov a noriem. Tieto normy je možné ohodnotiť z hľadiska ich dôležitosti pri rozhodovaní o tom, čo je správne a morálne. Predpokladajú, že keby získali takýto popis dostatočného množstva situácií, vedeli by vytvoriť sémantickú sieť morálnych princípov naviazaných na konkrétny kontext (krajina, doba, situácia). Takáto sieť by sa dala vložiť do robota a slúžila by na podporu jeho rozhodovania v danom kontexte morálne.

V súčasnosti však ešte nie sme tak ďaleko a vedci sa zaoberajú jednoduchšími problémami, ktoré im pomôžu overiť koncept, ako posilniť autonómne rozhodovanie robotov a súčasne zachovať ich správanie bezpečné a morálne. Experimentuje sa napríklad s uplatňovaním klasických zákonov robotiky, ako ich formuloval Isaac Asimov.

Zákony robotiky sformulované Isaacom Asimovom v poviedke Runaround z roku 1942:

  1. Robot nesmie zraniť človeka, ani svojím nekonaním dopustiť, aby bol človek zranený.
  2. Robot musí poslúchať príkazy dané človekom s výnimkou prípadov, keď takýto príkaz je v rozpore so zákonom číslo 1.  
  3. Robot musí chrániť vlastnú existenciu dovtedy, kým nedôjde ku konfliktu so zákonom číslo 1 alebo 2.

 

Autor: Ing. Ivana Budinská, PhD., Ústav informatiky SAV

Foto: Fotky&Foto

Uverejnila: ZVČ

 

Viac sa o roboetike, ako aj o iných zaujímavých témach, sa dočítate v časopise Quark (číslo 10/2016), ktorý nájdete v novinových stánkoch alebo si ho môžete predplatiť v elektronickej alebo papierovej verzii na www.quark.sk.

CENTRUM VEDECKO-TECHNICKÝCH INFORMÁCIÍ SR Ministerstvo školstva, výskumu, vývoja a mládeže Slovenskej republiky