Bezpečnostní novinky

Falešná videa jsou virální během několika hodin a zatím je nikdo neumí zastavit. Proč vznikají a v čem spočívá jejich nebezpečí?

David Strom, 19. říjen 2020

Umíte poznat falešné video? Profesor z UC Berkeley Hany Farid vás to naučí

Profesor na univerzitě UC Berkeley Hany Farid byl jedním z hlavních řečníků na naší mezinárodní technologické konferenci CyberSec&AI Connected. Pojďme si shrnout jeho velmi zajímavou přednášku.

Čemu se Hany Farid věnuje? 

Hany Farid se věnuje především výzkumu a vývoji deep fake videí. Na své přednášce proto ukázal, co všechno jsou schopni tvůrci těchto videí vytvořit. Ukázal, že bezpečnostní výzkumníci před sebou mají v této oblasti ještě hodně práce. 

Začátek přednášky byl věnován vývoji deep fake videí: Co začalo jako nevinná zábava v softwaru na úpravu fotografií se během několika let přetvořilo na zcela nové odvětví. Jeho cíl? Zaplavit náš online ekosystém falešnými videi. 

Každý z nás je posledních několik let svědkem obrovského pokroku v oblasti úpravy fotografií a videí, čemuž výrazně napomáhá využívání AI nástrojů. Farid ukázal pokrok na videu, ve kterém herečce Jennifer Lawrence nasadí obličej Steva Buscemiho. Konečný výsledek ponechal hereččino oblečení, tělo i vlasy, změnil se jen její obličej. Tento konkrétní klip si nekladl za cíl nikoho přesvědčit, že jde o pravé video. Jasně však ukázal, čeho je technologie schopná. 

Vlevo je video před úpravou, vpravo už má herečka Jennifer Lawrence obličej Steva Buscemiho. Pokud vás zaujalo, můžete se podívat na celý deep fake zde: 

Dle Farida můžeme deep faky zařadit do čtyř kategorií: 

  1. Nedobrovolné porno což je asi nejčastějším případem zneužití deep faků. Obličej jedné ženy je použit na podobný obličej pornoherečky a začne se šířit internetem. 
  2. Dezinformační kampaně jejich jediným účelem je zmást diváka a přilít olej do ohně” jak tvrdí Farid. 
  3. Manipulování s důkazy pomocí deep faků můžete na policii nahlásit přestupek nebo trestný čin, který se však nikdy nestal. Farid často sám pomáhá odborníkům rozpoznat, kdy došlo k manipulaci s důkazy. 
  4. Podvod který by mohl mít širokosáhlé důsledky pro národní bezpečnost a kriminalitu. Ve své přednášce Farid cituje zvukový deep fake, který napodobil hlas generálního ředitele společnosti, díky čemuž se zločincům povedlo bankovním převodem ukrást 243 000 dolarů

Jak deep fake poznat? 

Jednou z cest je pečlivě sledovat obličejové výrazy a pohyby, které má každý člověk trochu jiné. Zkrátka se zaměřit na ty nejmenší detaily. Nejde o žádnou exaktní vědu, nezkoumáme DNA nebo otisky prstů člověka. Farid tomuto způsobu říká soft biometrika”. Nejlépe se tato technika používá u filmových hvězd. U těch máme desítky hodin videí z jejich filmů, seriálů a různých rozhovorů, které můžeme porovnávat s deep fakem. Zkuste si například říct anglická slova mother”, brother” nebo „parent” bez zavření úst. 

Pokud nejste břichomluvec, nepodaří se vám to,” vysvětluje Farid a ukazuje svůj příklad i na jiných kombinacích písmen. Když se podíváme na Aleca Baldwina, jak se snaží napodobit amerického prezidenta Donalda Trumpa a opravdu se na jeho vystoupení zaměříme, všimneme si, že jeho gesta a výrazy ve tváři nejsou tak úplně přesné. Na podobné detaily je třeba se zaměřit, abyste byli schopni rozpoznat falešné video. 

Farid v minulosti mapoval předvolební videa kandidátů na amerického prezidenta a z obrázku si můžete všimnout, že na bývalého prezidenta Obamu vychází velký počet deep faků. To znamená, že jeho voliči mohli být vystaveni dezinformační kampani. 

 

Před námi se nachází mnoho výzev. Technologie se každým dnem vyvíjí a zlepšuje a bude čím dál těžší poznat propracované deep faky. Přenosová rychlost na sociálních sítích se zvětšuje. Co dříve zabralo dny, dokonce týdny než se rozšířilo mezi širokou veřejnost, zabere minuty, nanejvýš hodiny. Veřejnost je polarizovaná. S radostí uvěří těm nejhorším předpokladům a stereotypům o tom druhém” táboru. Lidé jsou mnohdy jednoduše manipulovatelní a stačí jim slyšet, že něco není pravda, aby tomu přestali věřit.

„To znamená, že už nic nemusí být skutečné,” říká Farid. 

Sociální platformy musí zakročit

Neexistuje žádná jednoduchá kouzelná odpověď pro ukončení dezinformační apokalypsy,” tvrdí Farid a zdůrazňuje, že by sociální sítě měly převzít zodpovědnost. Měly by se naučit rozpoznávat, co je lež a regulovat dosah takových zpráv (spíš než takové zprávy mazat spolu s urážlivými komentáři a příspěvky), uživatelům by také měly prezentovat i jiné názory a pohledy, než ty, které obvykle vyhledávají. 

Zaujala vás přednáška Hanyho Farida? Podívejte se na web naší konference, kde se dozvíte o nejnovějších trendech v umělé inteligenci a online bezpečnosti víc!