Jak deepfake podvody pohání novou vlnu kyberútoků

Avast Blog 9 Pro 2025

Deepfaky, neboli falešný digitální obsah vytvořený pomocí AI, posouvají podvody na novou úroveň a činí je ještě přesvědčivější. Přečtěte si, jak na ně nenaletět.

Technologie deepfake začala jako zábavný trik na večírky: vložení vlastní tváře do filmu od Marvelu, výměna hlasů ve skutečných nahrávkách pro pobavení nebo zveřejnění fotky papeže v bundě od Balenciagy.

Dnes však pomáhá kyberzločincům ve vytváření velice přesvědčivých a sofistikovaných podvodů. Podle společnosti Deepstrike vzrostlo množství deepfaků z původních 500 000 v roce 2023 na 8 milionů v roce 2025, což znamená nárůst o 900 % ročně.

Riziko je větší, než byste možná čekali. Lidé mohou deepfaky využít k tomu, aby se vydávali za vaše blízké, nebo dokonce od nuly vytvořili zcela novou „osobu“ s jediným cílem – podvést vás. Pojďme si rozebrat, jak podvodníci využívají umělou inteligenci k oklamání vašeho zraku, sluchu i peněženky.

Falešné tváře a skutečné problémy

Zločinci dokážou využít umělou inteligenci k tomu, aby z vygenerovaných hlasů a obrazů spolu s údaji skutečných osob (jako je rodné číslo nebo adresa) vytvořili nové syntetické identity. Tyto falešné osoby pak využívají k podávání žádostí o zaměstnání, zakládání bankovních účtů nebo k tomu, aby nic netušící uživatele přiměli k zaslání peněz.

Příkladem mohou být severokorejští IT pracovníci, kteří byli v roce 2023 přistiženi při používání deepfake videí k žádostem o práci na dálku v amerických technologických firmách. Tímto způsobem mohli získávat peníze a duševní vlastnictví pro potřeby režimu.

Problémem je i rostoucí kvalita deepfaků – podle společnosti Deepstrike dokáže rozpoznat deepfake video jen 24,5% lidí, uměle vytvořené fotky pak rozezná 62 % lidí.

Podvodník v nejvyšším vedení

Představte si, že vám finanční ředitel vaší společnosti pošle zprávu o naléhavé platbě dodavateli. Zkontrolujete videozprávu. Je to jednoznačně on. Hlas, tvář – vše sedí.

Až na to, že… to není skutečné.

Něco podobného se stalo počátkem tohoto roku ve společnosti Ferrari. Jeden z vedoucích pracovníků obdržel přes WhatsApp hlasovou zprávu, která napodobovala generálního ředitele Ferrari. Naštěstí manažer podvod odhalil, dříve než bylo pozdě.

Klam v hollywoodském stylu

Ani celebrity nejsou před deepfaky v bezpečí. Kyberzločinci z nich dělají nedobrovolné tváře podvodů pomocí videí a hlasů generovaných umělou inteligencí.

Podvodníci spoléhají na to, že lidé důvěřují známým tvářím. Než jsou tato videa odstraněna, nasbírají mnohdy i miliony shlédnutí.

Nová (falešná) tvář na rodinné sešlosti

Podvodníci využívají technologii deepfake ke kruté variantě podvodu napodobujícího členy rodiny v tísni. To se stalo jedné ženě z Floridy, která obdržela telefonát, jenž zněl přesně jako její dcera, která tvrdila, že někoho srazila při autonehodě. Údajný právník pak požadoval 15 000 dolarů v hotovosti na kauci.

K provedení tohoto schématu podvodníci používají krátké hlasové klipy (snadno stažitelné z Instagramu, TikToku nebo YouTube) ke klonování hlasů s děsivou přesností.

Umělá láska na první pohled

Deepfaky posouvají na novou úroveň také catfishing a další romantické podvody, při kterých si zločinci vytvářejí falešné profily s obrázky a hlasy generovanými umělou inteligencí. Někteří dokonce klonují hlasy celebrit nebo influencerů. Oběti věří, že potkaly někoho výjimečného... dokud nepřijdou žádosti o peníze.

Například muž z Prahy poslal 6 milionů korun podvodníkovi vydávajícímu se za slavnou herečku Sandru Bullock, která dotyčnému údajně slíbila společné bydlení i sňatek.

Co se stane, když naletím na jeden z těchto deepfake podvodů?

Nejste v tom sami. A nejste hloupí. Tato technologie je navržena tak, aby oklamala i technicky nejzdatnější osoby. Proto je ochrana proti podvodům s využitím AI důležitější než kdy jindy.

Co všechno je v sázce?

  • Finanční ztráta: Tyto podvody vás mohou stát od několika set korun až po celoživotní úspory.
  • Kompromitace identity: Vaše osobní údaje mohou kyberzločinci zneužít pro budoucí podvody. Navíc hrozí riziko krádeže identity.
  • Emocionální dopad: Trapnost, úzkost a nedůvěra jsou po podvodu běžné pocity. Romantické podvody, nebo ty, které se vydávají za člena rodiny, obvykle bolí nejvíc.

Co mám dělat, když mluvím s deepfakem?

Pokud máte podezření, že něco není v pořádku, přestaňte komunikovat a okamžitě jednejte. Máme pár jednoduchých tipů, co dělat dál:

  1. Zablokujte podvodníka: Okamžitě přerušte veškerou komunikaci.
  2. Kontaktujte dotčené společnosti: Je potřeba informovat banky, zaměstnavatele nebo jakoukoli službu, jejíž jméno podvodníci zneužívají.
  3. Nahlaste podvod policii: V některých případech může policie zločince vypátrat a získat případné ukradené peníze zpět. Nahlášením na policii ale především pomáháte před podvodem chránit ostatní.

Jak se chránit před falešnými tvářemi a hlasy

Těmto útokům se možná nevyhnete, ale můžete se proti nim chránit. Zde je několik způsobů, jak vyzrát na boty:

  • Hledejte varovné signály: Robotické nebo příliš hladké hlasy, podivné pohyby očí a trhaná kvalita videa by měly vzbudit podezření.
  • Zeptejte se „Je to pravděpodobné?“: Opravdu by vám Scarlett Johansson volala přes FaceTime kvůli nové platformě na investování do kryptoměn?
  • Dávejte si pozor na podivné žádosti: Žádost o peníze, hesla nebo jakoukoli naléhavou akci je varovným signálem.
  • Používejte vícefaktorové ověřování (MFA): MFA je obzvláště důležité pro e-mail a bankovnictví.
  • Mějte rodinné „bezpečnostní heslo“: Zvolte si tajnou frázi, kterou budou znát pouze skuteční blízcí.

Nenechte se napálit

Podvodníci sice mají umělou inteligenci, ale my také. Avast Scam Guardian v Avast Free Antivirus používá detekci hrozeb poháněnou umělou inteligencí k označení a blokování škodlivých odkazů, podezřelého audia či videa a pokusů o sociální inženýrství dříve, než se k vám dostanou.