"Deep-fake" videá je čoraz ťažšie rozpoznať. Umelá inteligencia má ale svoje medze
Máte vypnuté reklamy
Vďaka financiám z reklamy prinášame kvalitné a objektívne informácie. Povoľte si prosím zobrazovanie reklamy na našom webe. Ďakujeme, že podporujete kvalitnú žurnalistiku.
SLOVENSKO / Sociálnymi sieťami sa čoraz viac šíri nebezpečný fenomén, sú to takzvané "deep-fake" videá. Tieto zmanipulované nahrávky, vytvorené umelou inteligenciou, často zneužívajú tváre známych ľudí, aby šírili klamlivé informácie alebo neoverené produkty.
Mužovi zavolal nadriadený. Bola to ale umelá inteligencia
Žiaľ na internete sa čoraz častejšie šíria tzv. deepfake videá, ktorých obsah je klamlivý a zavádzajúci. Podľa odborníkov bude čoraz ťažšie falošné videá odlíšiť od pôvodných. Našťastie aj umelá inteligencia má isté medzery. "Na časti videa sa dalo vidieť, ako neboli synchronizované pohyby pier a takisto hlas bol trošku automaticky, syntenticky," opísal Branislav Šmidt, odborník na umelú inteligenciu z Transformio.AI. "Najčastejšie ide o nejakú inšpiráciu k investovaniu alebo nahovorenie na nejakú pôžičku a niečo podobné," ozrejmil Ondrej Macko, odborník na informačné technológie.
Lekára upravili tak, aby propagoval "zázračné" lieky
"Bol som veľmi nemilo prekvapený tým, že začali kolovať videa, ktoré ma napodobňovali, že som liečil nejako inak ako som povedal alebo hovorím, neautorizované," povedal Jozef Dubravický, urológ, uroonkológ a andrológ, s ktorým redaktor Martin Nagy pred časom robil rozhovor do inej reportáže. Jeho hlas a tvár niekto zneužil so zámerom ponúkať neoverené medicínske prípravky cez sociálne siete.
"Keď vám začnú chodiť pacienti a vyvolávať, že propagujem nejaký veľmi zázračný liek, ktorý dokáže pomôcť pacientom zázračne na počkanie a bez návštevy lekára, tak som bol v strehu a hlavne v obave o život a zdravie pacientov," poznamenal Jozef Dubravický.
Umelá inteligencia nie je dokonalá
"Hlas sedel, ale pohyby sú také, že je stále v statickom postavení, stále sa pozerá jedným smerom a tá mimika alebo emócie ako by chýbali v tom videu," upresnil Šmidt.
Podľa odborníka na umelú inteligenciu stále ešte existujú detaily, podľa ktorých vieme odlíšiť originálne video od napodobeniny. "Častokrát neukazujú celé postavy, neukazujú ruky, lebo umelá inteligencia má problémy s prstami napr. že urobí šesť prstov, miesto piatich alebo sú tak divne pokrútené," opísal Šmidt. "Na 80 % to sedí s tým, ako by to mohlo vyzerať a to mnohým ľuďom postačuje na to, aby tomu uverili," povedal Macko.
Tieto neautorizované produkty môžu mať veľmi negatívne dopady na život a zdravie pacientov, čo potvrdzuje aj lekár. "Dennodenne zachytávam pacientom, ktorí majú oneskorený začiatok liečby, či už na prostatu alebo poruchu erekcie kvôli tomu, že verili nejakému produktu zo sociálnych sietí," uviedol Dubravický.
Pán doktor v tejto veci už podnikol právne kroky. "Som poveril právnu kanceláriu, ktorá sa tým zaoberá a podali sme trestné oznámenie zatiaľ na neznámeho páchateľa," dodal Dubravický.