Temná inteligence AntiFake ochrání váš hlas před zneužitím  
V dnešní době už není v zásadě problém ukrást někomu hlas a použít ho k podvodu nebo i horším věcem. Technologie AntiFake, původně nástroj kyberzločinců, ochrání hlas před dnešními deepfake inteligencemi. Problém ale bude nejspíš v tom, že kyberzločinci nespí na vavřínech.
Technologie AntiFake. Kredit: Ning Zhang.
Technologie AntiFake. Kredit: Ning Zhang.

V poslední době vzbudily velký rozruch deepfake systémy s umělou inteligencí, které dovedou vyrobit méně či více přesvědčivou videokopii nějaké reálné osoby. Anebo audiokopii, kde je to ještě jednodušší. Z takových technologií jde strach. Deepfake podvrhy politiků a celebrit se stávají problémem pro fungování společnosti, například během volebních kampaní či krizí.

 

Ning Zhang. Kredit: Washington University in St. Louis.
Ning Zhang. Kredit: Washington University in St. Louis.

Hlasové podvrhy mohou zasáhnout kohokoliv. Když vám někdo zavolá, nemůžete si už být úplně jistí, zda to je anebo není člen rodiny či přítel v závažné nouzi. Další problém spočívá v tom, že takový deepfake může posloužit k prolomení ochrany založené na rozpoznávání hlasu. Otázkou je, jak se proti takovým technologiím bránit.

 

Logo. Kredit: Washington University in St. Louis.
Logo. Kredit: Washington University in St. Louis.

Už se objevily metody, které umožňují do určité míry rozpoznat, že máme co do činění s audio nebo videopodvrhem. Jsou ale i jiné možnosti. Ning Zhang z americké Washington University in St. Louis a jeho kolegové vyvinuli inteligenci AntiFake, která jako jedna z prvních umožňuje chránit hlas před tvorbou deepfake podvrhů. Taková inteligence zařídí, že pro deepfake inteligence bude mnohem obtížnější naklonovat lidský hlas.

 

Zhang shodou okolností použil pro dobrou věc technologii temné strany. AntiFake je založená na nástroji z výbavy kyberzločinců, ale teď, jak říká Zhang, nás může před kyberzločinci chránit. V podstatě jde o to, že AntiFake naruší mluvený hlas člověka pro elektronická zařízení natolik, že si s ním deepfake inteligence neporadí.

 

Pokud se deepafake inteligence pokusí vytvořit klon hlasu chráněného inteligencí AntiFake, výsledek se vůbec nepodobá původnímu lidskému hlasu. Dosavadní testy ukázaly, že ochrana AntiFake je úspěšná zhruba v 95 procentech případů. Zároveň se zdá, že tohle je situace, do které se vloží nelítostná Červená královna. Dojde k závodu ve zbrojení, v němž budou soupeřit pokročilé deepfake inteligence s pokročilými obrannými inteligencemi. Do budoucna máme o zábavu postaráno.

 

Technologie AntiFake je kompletně volně dostupná zde.

 

Video: Deepfake: Tips to identify and safeguard yourself from this AI-powered hoax

 

Literatura

New Atlas 28. 11. 2023.

Datum: 01.12.2023
Tisk článku



Diskuze:


Diskuze je otevřená pouze 7dní od zvěřejnění příspěvku nebo na povolení redakce








Zásady ochrany osobních údajů webu osel.cz