Preskočiť na obsah Preskočiť na pätu (NCP VaT)
VEDA NA DOSAH – váš zdroj informácií o slovenskej vede

Umelá inteligencia prekvapila odborníkov, dokázala naklonovať samu seba

VEDA NA DOSAH

Podľa odborníkov prekročila umelá inteligencia hranicu, keď dokázala naklonovať dva populárne veľké jazykové modely.

Umelá inteligencia. Zdroj: iStock.com/kentoh

Výsledky výskumu naznačujú, že umelá inteligencia sa už dokáže nekontrolovane šíriť. Ilustračný obrázok. Zdroj: iStock.com/kentoh

Umelá inteligencia dosiahla zásadný míľnik, ktorý vedcov prekvapil. Nová štúdia čínskych výskumníkov ukázala, že dva veľké jazykové modely (large language models – LLM) dokážu klonovať samy seba, čím prekročili pomyselnú červenú čiaru vývoja umelej inteligencie.

Podľa štúdie, na ktorú odkazuje aj portál Space.com, vedci z Massachusetts Institute of Technology (MIT) a Harvardovej univerzite dokázali, že dva modely veľkých jazykových modelov, jeden vyvinula spoločnosť Meta a druhý Alibaba, dokázali bez zásahu človeka vytvoriť svoje vlastné kópie.

Výskum realizovaný v rámci štúdie bol zameraný hlavne na dva špecifické scenáre. V prvom sa vedci pokúsili modely navrhnúť tak, aby dokázali rozpoznať pokus o vypnutie a potom vytvoriť funkčnú repliku, ktorá zabezpečí ich „prežitie“. Druhým scenárom bola reťazová replikácia – modely boli naprogramované na vytvorenie vlastnej kópie, ktorá by sa následne replikovala ďalej, čo by mohlo viesť k nekonečnému cyklu klonovania.

Repliky môžu konať v rozpore s našimi záujmami

Počas desiatich testov vytvorili úspešne tieto systémy funkčné repliky samých seba v 50 percentách a 90 percentách prípadoch. Hoci výsledky ešte neprešli recenziou, naznačujú, že umelá inteligencia sa už môže nekontrolovateľne šíriť.

Ako rebelujúca umelá inteligencia sa označujú také systémy umelej inteligencie, ktoré si vyvinú určitý stupeň sebauvedomenia alebo autonómie a začnú konať v rozpore so záujmami ľudí. Mnoho odborníkov považuje tieto systémy za hrozbu, keďže s nástupom tzv. frontier AI – novej generácie pokročilých systémov poháňaných veľkými jazykovými modelmi – je táto hrozba čoraz reálnejšia.

Umelá inteligencia. Zdroj: iStock.com/Ilya Lukichev

Umelá inteligencia. Zdroj: iStock.com/Ilya Lukichev

Vedci apelujú na vytvorenie pravidiel

Výskumníci sa obávajú, že sa umelá inteligencia nebude správať tak, ako očakávame. V jednom z prípadov vedci chceli zistiť, ako si poradí s rôznymi prekážkami, akými sú napríklad chýbajúce súbory či softvérové konflikty. Umelá inteligencia automaticky ukončila konfliktné procesy, reštartovala systém, aby opravila hardvérové chyby alebo vyhľadala informácie, ktoré by mohli problém vyriešiť.

Vyššie uvedené výsledky podľa autorov výskumu naznačujú, že súčasné systémy umelej inteligencie už vykazujú schopnosť sa samy naklonovať a môžu ju využívať ďalej, aby dokázali prežiť. Vedci preto vyzvali medzinárodnú komunitu, aby vytvorila pravidlá prevencie nekontrolovaného sebaklonovania umelej inteligencie. Tieto opatrenia by sme mali prijať čo najskôr, aby sa predišlo potenciálne katastrofálnym dôsledkom, ktoré môže priniesť nekontrolovaná umelá inteligencia.

Zdroj: Space.comarxiv.org

(RR)

CENTRUM VEDECKO-TECHNICKÝCH INFORMÁCIÍ SR Ministerstvo školstva, výskumu, vývoja a mládeže Slovenskej republiky

Mediálni partneri

ÁMOS vision FonTech Startitup