Deepfake remaky filmů vytvářejí falešné vzpomínky  
Experiment s deepfake videosekvencemi z neexistujících remaků, s pozoruhodným hereckým obsazením, prozradil, že lidé si velmi snadno vytvoří falešné vzpomínky. Zároveň se ale také ukázalo, že prakticky stejně snadno vytvářejí falešné vzpomínky i prosté textové popisy falešných remaků. Je to špatná nebo dobrá zpráva?
Deepfake jsou stále jednodušší. Kredit: Pixabay/CC0 Public Domain.
Deepfake jsou stále jednodušší. Kredit: Pixabay/CC0 Public Domain.

Deepfake technologie velmi realisticky upravují video, přičemž v různé míře mění obraz i zvuk. Obvykle jde o výměnu tváří, výměnu toho, co někdo řekl nebo i vytvoření zcela nových realistických videosekvencí, které se nikdy nestaly. Deepfake videa se objevují v různých reklamách či kampaních. Mohou také přivést k životu zemřelé blízké nebo třeba slavné osobnosti, případně vytvořit scény s herci, kteří již zesnuli anebo zestárli.

 

Gillian Murphy. Kredit: University College Cork.
Gillian Murphy. Kredit: University College Cork.

Velmi často se deepfake technologie uplatňují ve výrobě porna, kdy lze vytvořit pikantní scény s celebritami všeho druhu. Pesimisté se obávají, že deepfake videa povedou k přesvědčení veřejnosti, že není možné ničemu a nikomu věřit. Optimisté doufají, že široké povědomí o deepfake technologiích přivede lidi k potřebné skepsi, která je v rozumné míře zdravá a v online věku životně důležitá.

 

Deepfake technologie jsou staré jen pár let a zároveň se prudce vyvíjejí. Jsou ještě lepší, dostupnější a snadněji se s nimi pracuje. Také se dostaly do hledáčku psychologů, kteří

zjišťují, jaký mají vlastně deepfake videa vliv na lidi. Irský výzkumný tým se nedávno zabýval tím, jak deepfake videa působí na naši paměť.

 

Gillian Murphy z University College Cork a její kolegové sehnali 436 dobrovolníků, jejichž věk byl průměrně 25 let. Účastníci experimentu se poté zúčastnili online průzkumu, v němž shlédli skutečné scény z filmů a deepfake remaky, ke kterým se pak měli vyjádřit.

 

Logo. Kredit: University College Cork.
Logo. Kredit: University College Cork.

Použité deepfake remaky zahrnovaly „Osvícení,“ „Matrix,“ „Dobyvatelé ztracené archy,“ a „Captain Marvel.“ Ve falešném remaku „Osvícení“ se objevili Bred Pitt s Angelinou Jolie, v Matrixu si Nea zahrál Will Smith, v „Dobyvatelích ztracené archy“ si na nácky vyšlápl Chris Pratt a superhrdinku „Captain Marvel“ si v deepfake videu zahrála Charlize Theron.

 

Pokud jde o reálné filmy, dobrovolníci shlédli scény z „Karlíka a továrny na čokoládu,“ „Total Recall,“ „Carrie“ a „Tomb Raider.“ V některých případech se nedívali na deepfake remaky, ale četli si jejich popisy. Zároveň až do konce experimentu nevěděli, že deep fake scény jsou falešné.

 

Badatelé zjistili, že účastníci experimentu si ve značné míře vytvořili falešné vzpomínky o deepfake remacích. V průměru 49 procent z nich věřilo, že falešné remaky jsou skutečné. Nejčastěji si vzpomínali na (neexistující) remake filmu „Captain Marvel“ (73 procent), přičemž pro 41 procent účastníků experimentu byl jeho falešný remake lepší než originál. U „Dobyvatelů ztracené archy“ to bylo 13 procent, u „Matrixu“ 12 procent a u „Osvícení“ 9 procent účastníků experimentu, kteří hodnotili remake jako lepší.

 

Velmi zajímavé a v jistém smyslu pozitivní bylo, že míra tvorby falešných vzpomínek u deep fakes se blížila falešným vzpomínkám vytvořeným přečtením textů. Zdá se, jako by deepfake videa nebyla v tomto ohledu mocnější a nebezpečnější než řekněme starší metody manipulace lidské mysli. Pár řádek dobře mířeného textu zvládne zhruba to stejné jako propracované deepfake video. Mimo jiné to znamená, že apokalyptické obavy ze zhroucení civilizace kvůli deepfake videím zřejmě nejsou tak úplně na místě.

 

Video: The $100 Million Process of De-Aging Harrison Ford

 

Literatura

New Atlas 12. 7. 2023.

PLoS ONE online 6. 7. 2023.

Datum: 13.07.2023
Tisk článku

Související články:

Molekula oživující vzpomínky     Autor: Josef Pazdera (05.04.2004)
Deepfake videa by mohla zničit důvěru ve společnosti. Jak tomu čelit?     Autor: Stanislav Mihulka (18.02.2019)
Děsivě snadné: Deepfake technologie editují mluvené slovo textem z klávesnice     Autor: Stanislav Mihulka (22.06.2019)
Lidské tváře generované AI nám přijdou reálnější než ty skutečné     Autor: Stanislav Mihulka (29.01.2023)
Máme se soustředit – nebo vnímat okolí?     Autor: Zdeněk Kratochvíl (10.07.2023)



Diskuze:

Žádný příspěvek nebyl zadán

Diskuze je otevřená pouze 7dní od zvěřejnění příspěvku nebo na povolení redakce








Zásady ochrany osobních údajů webu osel.cz