Deepfaky, neboli falešný digitální obsah vytvořený pomocí AI, posouvají podvody na novou úroveň a činí je ještě přesvědčivější. Přečtěte si, jak na ně nenaletět.
Technologie deepfake začala jako zábavný trik na večírky: vložení vlastní tváře do filmu od Marvelu, výměna hlasů ve skutečných nahrávkách pro pobavení nebo zveřejnění fotky papeže v bundě od Balenciagy.
Dnes však pomáhá kyberzločincům ve vytváření velice přesvědčivých a sofistikovaných podvodů. Podle společnosti Deepstrike vzrostlo množství deepfaků z původních 500 000 v roce 2023 na 8 milionů v roce 2025, což znamená nárůst o 900 % ročně.
Riziko je větší, než byste možná čekali. Lidé mohou deepfaky využít k tomu, aby se vydávali za vaše blízké, nebo dokonce od nuly vytvořili zcela novou „osobu“ s jediným cílem – podvést vás. Pojďme si rozebrat, jak podvodníci využívají umělou inteligenci k oklamání vašeho zraku, sluchu i peněženky.
Falešné tváře a skutečné problémy
Zločinci dokážou využít umělou inteligenci k tomu, aby z vygenerovaných hlasů a obrazů spolu s údaji skutečných osob (jako je rodné číslo nebo adresa) vytvořili nové syntetické identity. Tyto falešné osoby pak využívají k podávání žádostí o zaměstnání, zakládání bankovních účtů nebo k tomu, aby nic netušící uživatele přiměli k zaslání peněz.
Příkladem mohou být severokorejští IT pracovníci, kteří byli v roce 2023 přistiženi při používání deepfake videí k žádostem o práci na dálku v amerických technologických firmách. Tímto způsobem mohli získávat peníze a duševní vlastnictví pro potřeby režimu.
Problémem je i rostoucí kvalita deepfaků – podle společnosti Deepstrike dokáže rozpoznat deepfake video jen 24,5% lidí, uměle vytvořené fotky pak rozezná 62 % lidí.
Podvodník v nejvyšším vedení
Představte si, že vám finanční ředitel vaší společnosti pošle zprávu o naléhavé platbě dodavateli. Zkontrolujete videozprávu. Je to jednoznačně on. Hlas, tvář – vše sedí.
Až na to, že… to není skutečné.
Něco podobného se stalo počátkem tohoto roku ve společnosti Ferrari. Jeden z vedoucích pracovníků obdržel přes WhatsApp hlasovou zprávu, která napodobovala generálního ředitele Ferrari. Naštěstí manažer podvod odhalil, dříve než bylo pozdě.
Klam v hollywoodském stylu
Ani celebrity nejsou před deepfaky v bezpečí. Kyberzločinci z nich dělají nedobrovolné tváře podvodů pomocí videí a hlasů generovaných umělou inteligencí.
Podvodníci spoléhají na to, že lidé důvěřují známým tvářím. Než jsou tato videa odstraněna, nasbírají mnohdy i miliony shlédnutí.
Nová (falešná) tvář na rodinné sešlosti
Podvodníci využívají technologii deepfake ke kruté variantě podvodu napodobujícího členy rodiny v tísni. To se stalo jedné ženě z Floridy, která obdržela telefonát, jenž zněl přesně jako její dcera, která tvrdila, že někoho srazila při autonehodě. Údajný právník pak požadoval 15 000 dolarů v hotovosti na kauci.
K provedení tohoto schématu podvodníci používají krátké hlasové klipy (snadno stažitelné z Instagramu, TikToku nebo YouTube) ke klonování hlasů s děsivou přesností.
Umělá láska na první pohled
Deepfaky posouvají na novou úroveň také catfishing a další romantické podvody, při kterých si zločinci vytvářejí falešné profily s obrázky a hlasy generovanými umělou inteligencí. Někteří dokonce klonují hlasy celebrit nebo influencerů. Oběti věří, že potkaly někoho výjimečného... dokud nepřijdou žádosti o peníze.
Například muž z Prahy poslal 6 milionů korun podvodníkovi vydávajícímu se za slavnou herečku Sandru Bullock, která dotyčnému údajně slíbila společné bydlení i sňatek.
Co se stane, když naletím na jeden z těchto deepfake podvodů?
Nejste v tom sami. A nejste hloupí. Tato technologie je navržena tak, aby oklamala i technicky nejzdatnější osoby. Proto je ochrana proti podvodům s využitím AI důležitější než kdy jindy.
Co všechno je v sázce?
- Finanční ztráta: Tyto podvody vás mohou stát od několika set korun až po celoživotní úspory.
- Kompromitace identity: Vaše osobní údaje mohou kyberzločinci zneužít pro budoucí podvody. Navíc hrozí riziko krádeže identity.
- Emocionální dopad: Trapnost, úzkost a nedůvěra jsou po podvodu běžné pocity. Romantické podvody, nebo ty, které se vydávají za člena rodiny, obvykle bolí nejvíc.
Co mám dělat, když mluvím s deepfakem?
Pokud máte podezření, že něco není v pořádku, přestaňte komunikovat a okamžitě jednejte. Máme pár jednoduchých tipů, co dělat dál:
- Zablokujte podvodníka: Okamžitě přerušte veškerou komunikaci.
- Kontaktujte dotčené společnosti: Je potřeba informovat banky, zaměstnavatele nebo jakoukoli službu, jejíž jméno podvodníci zneužívají.
- Nahlaste podvod policii: V některých případech může policie zločince vypátrat a získat případné ukradené peníze zpět. Nahlášením na policii ale především pomáháte před podvodem chránit ostatní.
Jak se chránit před falešnými tvářemi a hlasy
Těmto útokům se možná nevyhnete, ale můžete se proti nim chránit. Zde je několik způsobů, jak vyzrát na boty:
- Hledejte varovné signály: Robotické nebo příliš hladké hlasy, podivné pohyby očí a trhaná kvalita videa by měly vzbudit podezření.
- Zeptejte se „Je to pravděpodobné?“: Opravdu by vám Scarlett Johansson volala přes FaceTime kvůli nové platformě na investování do kryptoměn?
- Dávejte si pozor na podivné žádosti: Žádost o peníze, hesla nebo jakoukoli naléhavou akci je varovným signálem.
- Používejte vícefaktorové ověřování (MFA): MFA je obzvláště důležité pro e-mail a bankovnictví.
- Mějte rodinné „bezpečnostní heslo“: Zvolte si tajnou frázi, kterou budou znát pouze skuteční blízcí.
Nenechte se napálit
Podvodníci sice mají umělou inteligenci, ale my také. Avast Scam Guardian v Avast Free Antivirus používá detekci hrozeb poháněnou umělou inteligencí k označení a blokování škodlivých odkazů, podezřelého audia či videa a pokusů o sociální inženýrství dříve, než se k vám dostanou.