Preskočiť na obsah Preskočiť na pätu (NCP VaT)
VEDA NA DOSAH – váš zdroj informácií o slovenskej vede

Dôverujete svojmu úsudku? Hlasy generované umelou inteligenciou vás dokážu presvedčivo oklamať

Zuzana Šulák Hergovitsová

Kyberkriminalita využívajúca umelú inteligenciu na vytváranie podvodných hlasových správ je na vzostupe.

Umelá inteligencia. Zdroj: iStockphoto.com

Podvodníci využívajú umelú inteligenciu (AI) na vytváranie hlasových správ. Zdroj: iStock

Umelá inteligencia prináša mnohé výhody, napríklad lepšiu zdravotnú starostlivosť, bezpečnejšiu dopravu, efektívnejšiu výrobu či lacnejšiu a udržateľnejšiu energiu. No nie je bez rizík. Za jedno z najväčších odborníci považujú stieranie hraníc medzi realitou a fikciou spojené s využívaním umelej inteligencie. V rukách kybernetických podvodníkov sa z umelej inteligencie stáva ľahko dostupný, lacný a veľmi efektívny nástroj na šírenie dezinformácií rôzneho druhu.

V USA, ale aj v iných krajinách sveta sa rozmáha nový druh kyberkriminality: podvodníci využívajú umelú inteligenciu na napodobňovanie hlasov reálnych ľudí. Cieľom ich konania je vymámiť od obetí peniaze.

Riziká plynúce z používania umelej inteligencie

Kyberzločinci využívajú nové technológie, ktoré sú vo veľkom dostupné online a často sú zadarmo. Na internete je k dispozícii celá škála aplikácií na generovanie hlasov umelou inteligenciou. Podvodníkom neraz stačí len veľmi krátka hlasová stopa. Dokážu z nej naklonovať hlas, vytvoriť z neho krátku hlasovú správu a rozposlať ju blízkym. Naklonované hlasy sú na nerozoznanie od hlasov skutočných ľudí.

Situáciu dokumentuje nedávny prípad z USA. Podvodníci kontaktovali matku 15-ročnej dcéry a pustili jej nahrávku, v ktorej počula vzlykať svoju dcéru. Následne sa ozval muž so žiadosťou o výkupné. Hlas dcéry však nebol skutočný, bol vygenerovaný umelou inteligenciou, a únos bol fingovaný. Matka ani na sekundu nezapochybovala, že v telefóne počula dcéru. Pre médiá uviedla, že hlas z nahrávky znel presne ako ona. Podvod sa tentoraz podarilo odhaliť včas, no mnohí ľudia také šťastie nemali a podvodníci ich touto cestou pripravili o veľa peňazí.

Prípad, ktorý teraz vyšetruje polícia, poukázal na to, aký obrovský potenciál v sebe ukrýva umelá inteligencia v rukách kyberzločincov.

Wasim Khaled, výkonný riaditeľ a spoluzakladateľ spoločnosti Blackbird.AI, pre Francúzsku tlačovú agentúru AFP uviedol, že hlasy klonované umelou inteligenciou sú na nerozoznanie od ľudskej reči, čo podvodníkom umožňuje získavať informácie a finančné prostriedky od obetí oveľa efektívnejšie. Spoločnosť Blackbird.AI sa zaoberá identifikáciou rizík spojených s využívaním digitálnych médií a technológií a ochranou spoločností aj jednotlivcov pred kybernetickými útokmi.

Presvedčivé deepfakes

Na naklonovanie hlasu stačí len malá ukážka reálneho hlasu človeka, niekedy len zopár sekúnd, ktorá sa dá získať z obsahu zverejneného online. „Krátka zvuková vzorka sa dá využiť na vytvorenie hlasových odkazov a textov. Dá sa dokonca použiť ako živý menič hlasu pri telefónnych hovoroch,“ uviedol Khaled. „Podvodníci môžu s hlasom pracovať a meniť prízvuk, pohlavie či dokonca napodobňovať spôsob reči blízkych osôb. Technológia umožňuje vytváranie presvedčivých deepfakes.“

Každý štvrtý respondent celosvetového prieskumu, na ktorom sa zúčastnilo 7 000 ľudí z deviatich krajín vrátane USA, uviedol, že má osobnú skúsenosť s podvodným klonovaním hlasu umelou inteligenciou alebo sa s tým stretol niekto z jeho okolia.

V prieskume, uverejnenom minulý mesiac laboratóriami McAfee so sídlom v USA, 70 percent respondentov uviedlo, že si nie je istých, či by „dokázali rozoznať rozdiel medzi klonovaným a skutočným hlasom“.

Hlasové podvodné správy zamerané na starších

Podvodníci sa často zameriavajú na starších ľudí, pričom zvyknú predstierať, že sú vnúčaťom obete. Vymysleným príbehom o dopravnej nehode, dlhoch či inej urgentnej situácii sa snažia z obetí vymámiť peniaze.

Podobnú skúsenosť mal aj starý otec 19-ročného Eddieho z Chicaga. Dostal telefonát od niekoho, kto znel úplne ako Eddie s tým, že chlapec potrebuje peniaze po dopravnej nehode. Bolo to natoľko presvedčivé, že skôr než bol podvod odhalený, začal starý otec zháňať peniaze a dokonca chcel založiť dom.

Hany Farid, profesor na UC Berkeley School of Information, upozorňuje, obeťou takéhoto útoku sa môže stať v podstate každý, najmä ak je aktívny na sociálnych sieťach. Tento druh podvodu je veľmi efektívny a rýchlo sa šíri, keďže vygenerovať realisticky znejúci hlas skutočného človeka je veľmi jednoduché.

EÚ plánuje prvú reguláciu AI

Pre tieto, ale aj ďalšie potenciálne riziká, ktoré so sebou prináša používanie umelej inteligencie, plánuje Európska únia regulovať umelú inteligenciu (AI) v rámci svojej digitálnej stratégie. Ako sa uvádza na stránke Európskeho parlamentu, Európska komisia navrhuje, aby sa systémy umelej inteligencie, ktoré sa môžu používať v rôznych aplikáciách, analyzovali a klasifikovali podľa rizika, ktoré predstavujú pre používateľov. Rôzne úrovne rizika budú znamenať väčšiu alebo menšiu reguláciu. Na systémy umelej inteligencie by mali dohliadať ľudia, nie automatizácia, aby sa predišlo škodlivým dôsledkom. Po schválení pôjde o prvé pravidlá týkajúce sa umelej inteligencie na svete.

Zdroj: Tech Xplore, McAfee, Blackbird.AI, ACFE Insights, Európsky parlament

(zh)

CENTRUM VEDECKO-TECHNICKÝCH INFORMÁCIÍ SR Ministerstvo školstva, výskumu, vývoja a mládeže Slovenskej republiky