Lidská psychika je zvláštní věc. Opájíme se představou, jak je naše vůle svobodná a rozhodování nezávislé, ale ve skutečnosti se naše chování do značné míry automaticky podřizuje mnoha vnějším i vnitřním faktorům. Důvodem je především to, že jsme společenské zvíře, pro které bylo během celé historie pro přežití zcela klíčové žít v tlupě s ostatními lidmi.
Vždy to byla naše silná stránka, ale v moderní době, plné divných věci, s nimiž jsme se na afrických savanách nikdy nesetkali, se z našeho společenského nastavení zároveň stala ohromná slabina. Naše psychika je udělaná tak, že velmi přihlížíme, a často se přímo podřizujeme tomu, co si myslí „většina.“ Jinak by tlupy lovců a sběračů na savaně nemohly fungovat. Teď žijeme v betonové džungli, ale mozek máme stejný.
Na zneužívání těchto mechanismů lidského mozku, které jsou až překvapivě silné, je postavená propaganda i šíření dezinformací. Právě proto se v diskuzích pod příspěvky na sociálních médiích objevují spousty vášnivě přikyvujících či naopak dramaticky nesouhlasících reakcí, které ale přitom nejsou autentické a mnohdy ani lidské.
Vytvářejí falešný dojem většinového názoru. Možná si řeknete, že tomu jen tak někdo nepodlehne, ale je překvapivě těžké odolat. Je to jako vábení sirén nebo pornografie. Nedávné výzkumy ostatně ukazují, že inteligence jsou extrémně účinné v přesvědčování, mnohem zdatnější než průměrný člověk. A koho nepřesvědčí, u toho alespoň vyvolají depresi. Aby toho nebylo málo, teď se na obzoru rýsují ještě mnohem horší věci.
V rubrice Policy Forum prestižního Science se nedávno objevil článek mezinárodního týmu odborníků, který naléhavě varuje před novou generací dezinformací. Daniel Thilo Schroeder ze SINTEF Digital v norském Oslu a jeho kolegové upozorňují, že přicházející vlivové operace budou jako koordinované flotily AI osobností, které se budou adaptovat v reálném čase, budou infiltrovat skupiny uživatelů a vyrábět většinový názor veřejnosti v průmyslovém měřítku.
Schroeder a spol. upozorňují, že velké jazykové modely propojené s multiagentovými systémy (soustavy kooperujících AI agentů) mohou vytvořit dezinformační roje inteligencí (AI swarm), které budou zdařile napodobovat sociální dynamiku. Je to zásadní hrozba svobodné soutěži demokracie a útok na společenský konsenzus, už tak dost nalomený stále se prohlubující polarizací.
Podle badatelů je rizikem nejen falešný obsah, plný lží a manipulací, ale především syntetická většina. Falešně vyrobený dojem, že většina lidí v dané zemi nebo určité skupině zastává postoj, který vůbec neodpovídá skutečné situaci.
Dezinformační roj inteligencí tvoří síť navzájem propojených AI agentů, kteří si udržují trvalé identity a paměť. Tito AI agenti jsou navzájem koordinovaní, a mohou být velmi rozmanití, přičemž jako součást operace mohou hrát i například role vášnivých oponentů, jejichž hádky ale ve skutečnosti tlačí lidské uživatele k předem nastavenému cíli vlivové operace dezinformačního roje. AI agenti se neustále adaptují na vyvíjející se situace a operují prakticky autonomně.
##seznam_reklama##
Detekovat dezinformační roj soudobými metodami by bylo velmi těžké. Vědci ale naštěstí mají pár tipů, co s tím. Namísto moderování příspěvků jednoho po druhém navrhují obranné mechanismy, které budou sledovat koordinované chování a původ obsahu, detekovat statisticky nepravděpodobnou koordinaci účtů, provádět zátěžové testy sociálních médií pomocí simulací, nabízet možnosti ověření s ohledem na soukromí a sdílet důkazy prostřednictvím distribuované AI Influence Observatory. Jinými slovy, před dezinformačními rojí inteligencí nás musejí bránit obranné inteligence.
Video: The Geopolitics of Disinformation: Reports on the Summer Academy in Bonn, Germany
Literatura