Lidské tváře generované AI nám přijdou reálnější než ty skutečné  
Protřelé neurální sítě GAN, které simulují evoluční závody ve zbrojení, dělají výtečné lidské tváře. Jsou tak skutečné, že nám, prostým bílkovinným lidem, přijdou reálnější než ty reálné. Když se to lidé dozvědí, klesá u nich důvěra v cizí lidi. Na druhou stranu, určitá míra nedůvěry prospívá zdraví. Internet je plný podvodníků a propagandistů.
Tito lidé neexistují. Kredit: NVIDIA/thispersondoesnotexist.com.
Tito lidé neexistují. Kredit: NVIDIA/thispersondoesnotexist.com.

Lidé mají v genech superschopnost rozeznávat tváře. Mnozí si dokonce myslí, že v tom jsou dobří. Přesto ale lidé nedovedou rozlišit syntetické, tedy umělou inteligencí generované lidské tváře od těch pravých. Co je ještě horší, ukazuje se, že lidé považují takové syntetické tváře neexistujících lidí za reálnější.

 

Už teď je to velký problém. Realistické snímky falešných lidí se využívají v marketingu, reklamě, v politických kampaních, a v neposlední řadě ve špionáži a informačním válčení. Falešné tváře vytvářejí šikovné neurální sítě, typicky generativní kontradiktorní sítě čili GAN, které důmyslně napodobují evoluční závody ve zbrojení. Jsou to vlastně dvě inteligence, které trénují na ohromném souboru veřejně dostupných tváří, a také si jdou nelítostně po krku v tom, kdo udělá více realistický výtvor. Výsledkem jejich souboje jsou syntetické tváře.

 

Manos Tsakiris. Kredit: M. Tsakiris.
Manos Tsakiris. Kredit: M. Tsakiris.

Manos Tsakiris z University of London a jeho kolegové nedávno detailně studovali fenomén falešných tváří a jejich závěry jsou alarmující. Ukazuje se, že lidé nerozliší generované tváře od pravých. Dokonce tváře od umělých inteligencí považují za přesvědčivější, což je na pováženou. Podle nich to má vážné důsledky pro lidské chování v online světě. Syntetické tváře například mohou erodovat naši důvěru k ostatním lidem online, což se projevuje na našich postojích a komunikaci.

 

Logo. Kredit: University of London.
Logo. Kredit: University of London.

Tsakiris a spol. zatím nevědí, proč jsou pro nás generované lidské tváře přesvědčivější. Nepochybně to ale odráží pokrok ve vývoji umělých inteligencí, které se, možná nevědomky, naučily mačkat ta správná tlačítka v lidském mozku. Badatelé rovněž objevili zajímavou souvislost věrohodnosti tváří s jejich atraktivností. Ukazuje se, že tváře hodnocené jako méně atraktivní považujeme za reálnější. Inteligence GAN na to zjevně přišly taky.

 

Autoři studie se obávají, že věrohodnost generovaných tváří poškozuje společenskou důvěru, kterou máme vůči lidem, co je osobně neznáme. V experimentech potvrdili, že když lidé považují syntetické tváře za reálnější, tak do nich také vkládají více důvěry. Když se ale lidé dozvědí, že může jít o syntetické tváře, tak jejich důvěra k cizím lidem v online prostředí značně klesá, ať to jsou generované tváře anebo ne.

Jak zdůrazňuje Tsakriris, tohle je horká půda. Zmíněná reakce lidí na výskyt falešných tváří online totiž přináší negativa i pozitiva. Pokles důvěry v ostatní lidi je samozřejmě problematický pro soudržnost a fungování komunit i celé společnosti. Tsakriris s kolegy věří, že lidé jsou v zásadě dobří a že si zaslouží určitou bazální důvěru, i když je osobně neznáme. Na druhou stranu, jistá míra nedůvěry je zdravá a může zranitelné lidi chránit před podvodníky a propagandisty všeho druhu. Další věc je, že teď mohou nastoupit další umělé inteligence, které jsou výtečné v rozeznávání umělých tváří a mohou je například označovat na sociálních sítích výstražným symbolem.

 

Video: Ways of feeling the social and political world | Prof. Manos Tsakiris | AI Forward Forum

 

Video: Prof Manos Tsakiris - Interoception, Visceral Influence & The Affective Turn

 

Literatura

The Conversation 23. 1. 2023.

iScience 25: 105441.

Datum: 29.01.2023
Tisk článku

Související články:

Deepfake videa by mohla zničit důvěru ve společnosti. Jak tomu čelit?     Autor: Stanislav Mihulka (18.02.2019)
Generátor fake news GROVER je ďábelská zbraň o dvou ostřích     Autor: Stanislav Mihulka (03.06.2019)
Děsivě snadné: Deepfake technologie editují mluvené slovo textem z klávesnice     Autor: Stanislav Mihulka (22.06.2019)



Diskuze:


Diskuze je otevřená pouze 7dní od zvěřejnění příspěvku nebo na povolení redakce








Zásady ochrany osobních údajů webu osel.cz