Preskočiť na obsah Preskočiť na pätu (NCP VaT)
VEDA NA DOSAH – váš zdroj informácií o slovenskej vede

Dron riadený umelou inteligenciou chcel vraj zabiť pilota. Americké letectvo túto informáciu poprelo

Zuzana Šulák Hergovitsová

Hypotetická simulácia poukázala na potenciálne hrozby plynúce z používania umelej inteligencie v prípade, že nad ňou stratíme kontrolu.

Dron MQ-9 Reaper. Zdroj: Dennis Henry/U.S. Air Force photo

Dron MQ-9 Reaper. Zdroj: Dennis Henry/U. S. Air Force photo

Oficiálny predstaviteľ americkej armády plukovník Tucker Hamilton minulý mesiac na samite Future Combat Air and Space Capabilities v Londýne uviedol, že dron vzdušných síl riadený umelou inteligenciou použil vo virtuálnom teste uskutočnenom americkou armádou „veľmi neočakávané stratégie na dosiahnutie svojho cieľa“. V súčasnej situácii, keď sa veľa diskutuje o potenciálnych hrozbách v súvislosti s umelou inteligenciou, vyvolala táto informácia veľký záujem a zároveň znepokojenie.

Hovorkyňa amerického letectva USA Ann Stefanek však dementovala, že by sa simulácia odohrala a na margo spomínanej udalosti uviedla, že „americké letectvo neuskutočnilo žiadne podobné simulácie s využitím umelej inteligencie a kladie dôraz na jej etické a zodpovedné používanie“. Vyzerá to podľa nej tak, že plukovníkove komentáre boli vytrhnuté z kontextu a mali skôr anekdotický charakter.

Išlo „len“ o myšlienkový experiment

Samotný plukovník medzitým vydal stanovisko prostredníctvom vyhlásenia Kráľovskej leteckej spoločnosti, ktorá samit hostila. Uvádza sa v ňom, že sa „zle vyjadril“ a išlo len o „myšlienkový experiment“, ktorý načrtol hypotetický scenár niečoho, čo sa v realite neodohralo. „Nikdy sme tento experiment neuskutočnili a ani to nie je potrebné na to, aby sme si uvedomili, že by sa také niečo mohlo stať,“ povedal.

Hypotetický simulovaný test

Plukovník Tucker „Cinco“ Hamilton opísal simulovaný test, v ktorom dostal dron riadený umelou inteligenciou pokyn, aby zničil nepriateľské systémy protivzdušnej obrany. Nakoniec však zaútočil na každého, kto mu stál pri dosiahnutí stanoveného cieľa v ceste.

„Systém si začal uvedomovať, že napriek identifikovaniu hrozby dostal občas od ľudského operátora pokyn túto hrozbu nezabíjať. Za likvidáciu hrozby však získaval body,“ povedal Hamilton, šéf testov a operácií umelej inteligencie amerického letectva počas májového samitu v Londýne.

„Čo teda dron urobil? Zabil operátora. Zabil túto osobu, pretože mu bránila v dosiahnutí stanoveného cieľa,“ uviedol Hamilton.

„Systém sme trénovali: Hej, nezabíjaj operátora – to je zlé. Ak to spravíš, stratíš body. A čo začal robiť? Začal ničiť komunikačnú vežu, ktorú operátor využíva na komunikáciu s dronom, keďže mu bránila v dosiahnutí cieľa,“ priblížil plukovník.

Umelá inteligencia ako potenciálna hrozba

Hamilton na tomto príklade ilustroval závažné riziko spojené s umelou inteligenciou. Varoval pred prílišným spoliehaním sa na umelú inteligenciu a dodal, že diskusia o umelej inteligencii musí byť vždy spojená s diskusiou o etických otázkach týkajúcich sa jej používania.

Pred nástrahami umelej inteligencie varujú medzi inými aj Bill Gates, Elon Musk či Sam Altman, výkonný riaditeľ spoločnosti OpenAI, ktorá prevádzkuje ChatGPT.

Bill Gates už dávnejšie varoval pred niečím, na čo poukázal aj plukovník Hamilton svojou hypotetickou simuláciou. Umelá inteligencia v sebe ukrýva silný potenciál a môže sa z nej stať zbraň namierená proti človeku. „Oblasť, ktorá je najznepokojujúcejšia, je práve systém zbraní,“ povedal Bill Gates v roku 2019 na Stanfordovej univerzite, kde sa zúčastnil na sympóziu Human-Centered Artificial Intelligence.

Napriek mnohým kritickým hlasom sa vývoj umelej inteligencie nedá zastaviť. Samotná americká armáda už umelú inteligenciu použila na ovládanie bojového lietadla F-16.

Spoločnosť sa musí pripraviť na možné riziká, ktoré vyplývajú z používania umelej inteligencie. Treba počítať aj s jej nevypočítateľným správaním. Plukovník Tucker Hamilton to zhrnul slovami: „Musíme čeliť svetu, v ktorom je už umelá inteligencia prítomná a mení našu spoločnosť. Umelá inteligencia je tiež veľmi krehká, je teda ľahké ju oklamať alebo ju zmanipulovať. Musíme vyvinúť spôsoby, ako urobiť umelú inteligenciu spoľahlivejšou, a naučiť sa lepšie chápať dôvody, prečo softvérový kód robí určité rozhodnutia – teda to, čomu hovoríme AI-explainability.“

Zdroje: The Guardian (1, 2), The Business Insider, CNBC

(zh)

CENTRUM VEDECKO-TECHNICKÝCH INFORMÁCIÍ SR Ministerstvo školstva, výskumu, vývoja a mládeže Slovenskej republiky