Deep Fakes

Tři hrozby Deepfake videí a možné řešení proti nim.

Nadávající Barack Obama, donaha se svlékající Natalie Portman, či Euro propagující Tomio Okamura. Internet zaplavila videa se známými osobnostmi, které dělají a říkají věci, které by ve skutečnosti možná nikdy neřekli. Mnohé z nich pobaví, jiné pobouří, no jedno je jisté – Deepfakes jsou nejen na dezinformační scéně jednou z největších digitálních novinek a do budoucna s nimi musíme počítat. 

Jak vznikají, odkud se vzali a jaké představují riziko? Deepfake je technologie na bázi umělé inteligence, která shromažďováním modelů lidského chování vytváří vlastní modely, které by měly být racionální a inteligentní – tedy simulují lidské chování. Zjednodušeně řečeno, počítač na základě kombinací obrázků a videí dostupných na internetu dokáže předpovědět, jak se určitá osoba v dané chvíli může cítit. Tento nově vytvořený obraz (i zvuk) se potom často vkládá do už existujícího videa, které má navodit pocit originality. Jako první se začali deepfakes objevovat na porno stránkách, kde byly tváře pornohereček nahrazované známými celebritami jako Gal Gadot, Scarlett Johansson či Natalie Portman. Postupně se však začali rozšiřovat do politiky, hudebního, ale i komerčního prostředí.

Většina dnešních deepfakes je při troše pozornosti relativně lehce odhalitelná. Mnoho z nich spojují nepřirozeně se měnící barvy tváří celebrit či nepřirozená mimika a mrkání. Se zdokonalováním technologie vytváření videí se však dá očekávat postupné vylepšování kvality, s čímž jsou spojená i rizika pro nás všechny.

1. Je stále jednodušší vytvořit deepfake video

Co začalo jako zábava pár nadšenců toužících po vytvoření něčeho nového, bude v blízké budoucnosti lehce dostupný nástroj pro každého uživatele. Na internetu existuje už dnes mnoho webových stránek (mezi jinými například Deepfakesweb či Deepfakesapp), které vám poskytnou návod na vlastní vytvoření videa, nebo vám ho za pár hodin jednoduše vytvoří sami, a to všechno podle vašich představ. Kromě už klasického face swapu, tedy výměny tváře za jinou tvář, se postupně začínají využívat i jiné nástroje jako vymazávání objektů a lidí z videí či produkování fake audio nahrávek. Vytvoření falešné zprávy očerňující námi neoblíbeného politika bude asi tak jednoduché, jako nastavení filtru na Instagramu.

2. Odlišení originálu od deepfake bude v budoucnu náročnější

Se zlepšováním technologie vytváření deepfakes a zjednodušením jejího používání se dá očekávat, že v budoucnu budou falešná videa propracovanější, dokonalejší a tím pádem i hůře odhalitelná. Už dnes jsou některé tváře ve videích k nerozeznání od originálu. Detail tkví v preciznosti daného uživatele a v počtu obrázků a videí, které jsou na internetu o dané osobě dostupné. YouTube kanál s názvem Ctrl Shift Face, jehož autorem je Slovák Tomáš žijící v Brně, využívá při vytváření nové tváře přibližně 5000 obrázků a videí konkrétní slavné osoby. Jeho zábavná videa mají více jak 28 milionů zhlédnutí, a to právě proto, že tváře herců jako Tom Cruise, Jim Carrey či Al Pacino věrohodně pasují do zasazeného děje. Lidé často nedávají pozor na detaily a pokud budou deepfakes stále lepší a lepší, bude jednodušší manipulovat je dezinformacemi kolujícími na internetu. Ve spleti autentických a deepfake videí bude náročné se vyznat a určit, která jsou pravá a která ne.

3. Každý se může stát „obětí“

Dnešní deepfakes často pracují s celebritami a politiky. Na internetu se nachází nekonečné množství materiálů s jejich tvářemi a hlasem, takže vytvoření kvalitního videa je snadné. Dostupností fotek a videí osob na sociálních sítích jako Facebook a Instagram se však stávají potenciálním cílem i novináři, vlivní lidé či podnikatelé, a v konečném důsledku my všichni. Výzkumníci ze Samsung centra umělé inteligence v Moskvě například vyvíjejí systém, pomocí kterého by bylo možné vytvořit živé portréty už na základě jediné fotografie jakéhokoliv člověka. Deepfake videa by to mohlo přenést na úplně jiný level – bývalí partneři by jako pomstu mohli uveřejňovat falešné porno video s tváří své bývalé či bývalého, v autokratických režimech by zase bylo jednodušší zdiskreditovat disidenty bojující proti režimu. A v totalitních státech by mohli pravidelně ukazovat nová videa svého lídra, který by byl už dávno po smrti.

Odborníci varují před zneužitím deepfakes ve prospěch šíření strachu, nenávisti, rozdělování a ovlivňování společnosti. Představme si, jaké důsledky by mohlo mít například uveřejnění diskreditačního deepfake videa o kandidátovi (které by nikdo neuměl odhalit), a to jen pár dní před konáním voleb. Na druhou stranu se se zdokonalováním technologie vyvíjí také software, který by (podobně jako TinEye u obrázků) dokázal odlišit pravé od falešného videa – jeden takový v současnosti vytváří spolu se svými kolegy odborník na deepfake videa Supasorn Suwajanakorn.

Využití umělé inteligence je do budoucna obrovskou výzvou. Představte si, že bychom mohli jít na přednášku Alberta Einsteina o kvantové fyzice, vidět tancovat Leonarda Di Capria namísto Johna Travolty ve filmu Pulp Fiction, anebo si vytvořit vlastního avatara na základě naší podoby. Nástroje k tomu zdá se budou. Je jen na nás, jak je využijeme.

Čtěte také…

Zdroj obrázků: pixabay.com
Publikace podléhá licenci Creative Commons BY-NC-ND 4.0
https://creativecommons.org/licenses/by-nc-nd/4.0/legalcode.cs
Autorské dílo lze sdílet za těchto podmínek: uveďte původ (autorství), neužívejte dílo komerčně, nezasahujte do díla.

Jste škola a přemýšlíte o vzdělávací akci pro své žáky?