I. Úvod: Informační potopa nebo jen ucpaný odtok?
Každá epocha si zřejmě libuje ve své módní diagnóze. Ta současná, zdá se, trpí „společenským kognitivním zahlcením“. Alespoň takovou optikou nahlíží na věc Salem Lahlou ve své práci publikované na arXiv. Nejde prý o další sofistikovanou omluvu pro lenost či neschopnost soustředit se, nýbrž o systémový problém. Umělá inteligence (AI) jej nejen zesiluje, ale přímo katalyzuje do podoby vážné hrozby pro individuální pohodu i společenskou odolnost. Lahlou dokonce tvrdí, že právě toto zahlcení představuje klíčový, avšak často přehlížený, faktor v celé té vzrušené debatě o rizicích AI, včetně těch scénářů, jež taktně naznačují možnost existenčního karambolu.
Samozřejmě, nářky na přemíru informací nejsou pod sluncem ničím novým. Lidstvo si na informační přetlak stěžuje prakticky od vynálezu klínového písma. Již T. S. Eliot ve 30. letech minulého století dumal, zda lidstvo neobětovalo moudrost honbě za informacemi, a Alvin Toffler v knize Šok z budoucnosti z roku 1970 varoval, že budoucí generace budou tak bombardovány daty, až upadnou do deprese a izolace. Dokonce i staletí před nimi si učenci lámali hlavu nad tím, že je „příliš mnoho knih ke čtení“. Pocit zahlcení se tedy jeví spíše jako chronický stav civilizace než akutní nemoc 21. století.
Proč je to tedy teď jiné, a podle Lahloua (a nejen jeho) horší? Odpověď zní, jak jinak, AI. Zejména generativní modely, chrlící texty, obrázky a videa rychleji, než stačíme mrkat, exponenciálně zvyšují nejen objem a rychlost, ale i komplexnost informací. Již nejde jen o kvantitu; mění se i kvalita, či spíše nekvalita. Deepfakes nerozeznatelné od reality, syntetická média šitá na míru předsudkům, algoritmické kurátorství uzavírající jedince do informačních bublin a názorových ozvěn – to vše eroduje společný základ reality a ztěžuje rozlišení pravdy od lži.
Historický pohled naznačuje, že „informační zahlcení“ možná není nemocí samo o sobě, ale spíše symptomem neschopnosti sociálních a kognitivních struktur adaptovat se na technologické skoky. Každá nová informační technologie, od knihtisku po internet, vyvolala podobné obavy. AI v tomto kontextu není ani tak příčinou zahlcení, jako spíše extrémním akcelerátorem a modifikátorem tohoto chronického stavu. Radikálně zesiluje a mění charakter problému, latentně přítomného. Skutečným problémem se tak jeví adaptační kapacita, kterou AI nyní testuje na samou hranici možností.
A zde se dostáváme k jádru Lahlouova argumentu: toto zahlcení oslabuje na dvou frontách současně. Jednak brání efektivně řešit palčivé problémy současnosti – od klimatické změny po politickou polarizaci – a zároveň podkopává schopnost seriózně se zabývat dlouhodobými implikacemi a riziky samotné AI. Vzniká začarovaný kruh: zahlcené instituce, neschopné zpracovat komplexitu a rychlost změn, nedokážou AI efektivně regulovat a řídit. A špatně řízená, neregulovaná AI pak dále zesiluje společenské zahlcení a napětí. Jsme jako křeček v kolečku, roztáčejícím se stále rychleji.
O autorovi studie
Dr. Salem Lahlou působí jako odborný asistent (Assistant Professor) na Katedře strojového učení na Univerzitě umělé inteligence Mohameda bin Zayeda (MBZUAI) v Abú Dhabí. Doktorát získal v roce 2023 na Mila a Université de Montréal pod vedením Yoshuy Bengia, jednoho z kmotrů hlubokého učení. Před nástupem na MBZUAI působil jako seniorní výzkumník na Technology Innovation Institute (TII) rovněž v Abú Dhabí a absolvoval stáže v Google Brain v Paříži a IBM Research v Singapuru.
Jeho výzkum se soustředí na nástroje "AI pro vědu", zejména na generativní modely jako GFlowNets, které spoluvyvíjí, dále na uvažování velkých jazykových modelů (LLM), kvantifikaci nejistoty v AI a efektivitu učení posilováním. Hluboce se zajímá o pochopení mechanismů inteligence, ať už lidské nebo umělé. Sám o sobě říká, že si je vědom potenciálu AI, ale i jejích omezení a úskalí – rozhodně není "technosolucionista".
Oficiální portrétní fotografie Dr. Salema Lahloua. Zdroj: MBZUAI
II. Diagnóza podle Lahloua: Jak nám AI zavařuje obvody
Lahlou servíruje svou diagnózu rozdělenou do tří hlavních bojišť, kde kognitivní kapacity, individuální i kolektivní, dostávají pořádně na frak. Tyto arény – Informační, Morální a Systémová – nejsou striktně oddělené; spíše se prolínají a vzájemně neblaze posilují, přičemž AI funguje jako univerzální zesilovač problémů.
A. Informační bojiště: Mlha z deepfaků a algoritmů
Zde je situace asi nejzřetelnější. Jsme doslova zaplaveni obsahem, jehož původ a pravdivost je stále těžší ověřit. AI generuje syntetická média, deepfakes a cílené dezinformace v průmyslovém měřítku. Algoritmy sociálních sítí a vyhledávačů, navržené nikoli pro hledání pravdy, ale pro maximalizaci zapojení uživatelů (čti: udržení pozornosti co nejdéle), uzavírají jedince do názorových bublin a echo chambers. Výsledkem je eroze sdílené reality a epistemického základu, na kterém by mohla stát rozumná debata.
Mechanismus tohoto informačního chaosu je ďábelsky účinný. Algoritmy se naučily, co jedince zaujme – často obsah vyvolávající silné emoce, potvrzující předsudky nebo rozčilující. Tento obsah pak preferenčně zobrazují, čímž zesilují polarizaci a manipulaci. Využívají přitom kognitivních zkreslení, jako je konfirmační bias (tendence vyhledávat a interpretovat informace tak, aby potvrzovaly stávající názory), která jsou pod tlakem informačního zahlcení ještě výraznější. Když je mozek přetížený, klesá tendence zapojovat náročnější, kritické myšlení (Systém 2 podle Kahnemana), a stáváme se snadnější kořistí pro dezinformace a manipulativní narativy.
Srovnávací studie tento obrázek potvrzují. Výzkumy algoritmické manipulace a polarizace na sociálních sítích jsou legie. Zvláště zajímavá je studie Huszára a kol. (2022) publikovaná v PNAS. Ta na základě rozsáhlého experimentu na Twitteru (dnes X) zjistila, že algoritmy platformy v té době konzistentně více zesilovaly obsah od mainstreamových pravicových politiků a pravicově orientovaných médií v USA a v šesti ze sedmi zkoumaných zemí, ve srovnání s levicovými protějšky. Zajímavé je, že studie nenašla důkazy pro populární tvrzení, že by algoritmy více zesilovaly extrémní politické skupiny než ty umírněné. Novější studie, využívající jiné metody, rovněž naznačují, že algoritmy mají tendenci zesilovat obsah, který je v souladu s politickým přesvědčením uživatele, a zároveň omezovat vystavení opačným názorům, čímž dále přispívají k fragmentaci.
V tomto světle se ukazuje paradoxní povaha algoritmického kurátorství. Snaha „dát nám to, co chceme“ (maximalizovat engagement) vede k tomu, že dostáváme systematicky pokřivený obraz světa a názorů ostatních. Algoritmy nejsou neutrálními zrcadly preferencí; aktivně formují vnímání reality tím, že izolují od názorové diverzity a posilují existující rozkoly. Jak ukazuje Huszárova studie, toto formování navíc nemusí být politicky symetrické. Nejsou to tedy jen pasivní nástroje, ale aktivní tvůrci informačního prostředí, kteří mohou prohlubovat společenské příkopy, často s měřitelným politickým náklonem.
B. Morální kompas v mlze: Kdo vlastně řídí?
Druhá aréna zahlcení se týká etiky a hodnot. AI nutí čelit fundamentálním otázkám: Jak definovat a implementovat „spravedlnost“ v algoritmických systémech rozhodujících o úvěrech, pracovních místech nebo dokonce o vině a trestu? Jak zajistit, aby AI nerozšiřovala nebo dokonce nezesilovala existující společenské předsudky a diskriminaci? Lahlou argumentuje, že samotné zahlcení brání tyto otázky smysluplně řešit. Jsme příliš přetíženi na to, abychom vedli hlubokou, informovanou debatu o hodnotách, které chceme do technologií vtělit.
Navíc, varuje Lahlou, přílišné spoléhání na AI platformy může vést k erozi klíčových lidských schopností, jako je empatie, sebereflexe a kritické myšlení. Když delegujeme stále více kognitivních úkolů na stroje, riskujeme ztrátu schopnosti hluboké deliberace o komplexních etických dilematech.
„Morální zahlcení“ tak není jen o neschopnosti řešit etické problémy způsobené AI (jako je algoritmický bias nebo definice spravedlnosti). Je to také o tom, jak samotné používání AI a život v neustále zahlcujícím prostředí mění vlastní morální citlivost a schopnost úsudku. Studie o takzvaném kognitivním odkládání (cognitive offloading) ukazují, že když spoléháme na externí nástroje (včetně AI) pro kognitivní úkoly, snižuje se vlastní mentální úsilí a zapojení. Etické rozhodování však vyžaduje aktivní reflexi, zvažování důsledků a často i emoční inteligenci – tedy přesně ty schopnosti, které AI postrádá a které může spoléhání na ni oslabovat. Delegováním rozhodnutí, i těch zdánlivě neetických, na AI, můžeme nevědomky nechat zakrnět vlastní „morální svaly“. Morální zahlcení je tedy dvojsečné: AI klade nové, složité etické otázky, a zároveň činí jedince potenciálně méně schopnými na ně odpovědět tím, že podporuje mentální pasivitu a kognitivní odkládání i v morální sféře.
C. Systém na hraně: Komplexita jako past
Třetí doména se týká systémové stability. AI dramaticky zvyšuje propojenost a komplexitu společenských systémů – ekonomických, politických, infrastrukturních. Zároveň však může snižovat schopnost těmto systémům rozumět, předvídat jejich chování a efektivně je řídit. Výsledkem je podle Lahloua rostoucí systémová křehkost a zvýšené riziko kaskádových selhání nebo dokonce kolapsu.
Zde silně rezonuje teorie historika a antropologa Josepha Taintera o kolapsu komplexních společností. Tainter argumentuje, že civilizace často kolabují, když dosáhnou bodu, kdy náklady na udržení jejich rostoucí komplexity (byrokracie, infrastruktura, řešení problémů) začnou převyšovat přínosy, které tato komplexita poskytuje. Společnosti investují do komplexity, aby řešily problémy, ale tyto investice mají klesající mezní výnosy. Nakonec se systém stane tak nákladným a neefektivním, že se zhroutí pod tíhou vlastní složitosti nebo v důsledku externího šoku, který už nedokáže absorbovat.
AI se v tomto kontextu jeví jako mocný akcelerátor této dynamiky. Nejenže sama o sobě přidává nové vrstvy komplexity do systémů, ale zároveň, jak zdůrazňuje Lahlou, zahlcuje lidské kapacity potřebné k řízení této komplexity. Studie, která se pokusila modelovat Tainterovu teorii pomocí síťového modelu agentů („pracovníků“ a „administrátorů“), ukázala, že zvyšování komplexity (podílu administrátorů) v reakci na externí stres (problémy) skutečně může zvýšit pravděpodobnost kolapsu systému, a to skrze zpětnovazební smyčku, kde stres vede k větší komplexitě, která činí systém křehčím.
Lahlouovo „systémové zahlcení“ a Tainterova teorie kolapsu se tak zdají být dvěma stranami téže mince. AI nejenže zvyšuje komplexitu systémů, jak by popsal Tainter, ale zároveň zahlcuje schopnosti tuto komplexitu zvládat, jak zdůrazňuje Lahlou. Tainterova teorie popisuje, jak společnosti zvyšují komplexitu k řešení problémů, což má ale rostoucí náklady (energetické, kognitivní) a klesající výnosy. Lahlouův koncept vysvětluje, jak AI tento proces urychluje tím, že zvyšuje jak samotnou komplexitu, tak i kognitivní náklady na její zvládání. Zahlcené instituce a jedinci pak logicky selhávají v efektivním řízení těchto stále složitějších systémů. AI tak může představovat dvojitý úder na stabilitu civilizace, činící systémové selhání, o kterém mluví Tainter, nejen možným, ale i pravděpodobnějším.
D. Další původci bolesti hlavy (podle Lahloua)
Kromě těchto tří hlavních arén Lahlou identifikuje další mechanismy, kterými AI přispívá ke společenskému zahlcení:
- Strach z automatizace a ekonomická křehkost: AI a automatizace vytlačují pracovníky nejen z manuálních, ale i z kognitivních rolí, což vede k ekonomické nejistotě, psychickému stresu a úzkosti. Studie jako ta od Case a Deatonové dokonce spojují ztrátu zaměstnání v důsledku automatizace s nárůstem „úmrtí ze zoufalství“ (sebevraždy, předávkování). Kognitivní zahlcení navíc ztěžuje rekvalifikaci a adaptaci na měnící se trh práce. Tento pohled souzní s analýzou Acemoglua a Johnsona, kteří varují, že současný trend vývoje AI směřuje spíše k nahrazování pracovníků (automatizaci) než k jejich doplňování (augmentaci), což pravděpodobně povede k dalšímu nárůstu nerovnosti.
- Deregulace a motiv zisku: Lahlou zdůrazňuje, že socioekonomický kontext – slabá nebo pomalá regulace a dominantní motiv zisku technologických firem – zesiluje problém zahlcení. Vlády často nestíhají reagovat na rychlý vývoj AI, zatímco platformy, jejichž obchodní model je postaven na udržení pozornosti, mají malou motivaci upřednostňovat duševní pohodu uživatelů před metrikami engagementu. Kdo by to byl řekl, že?
- Existenční nejistota: Schopnost AI pronikat do oblastí dříve považovaných za výhradně lidské (kreativita, empatie, rozhodování) vyvolává fundamentální otázky o lidské identitě, jedinečnosti a smyslu života. Tato existenciální úzkost a potřeba nově definovat místo člověka ve světě přidává další, hlubší vrstvu ke kolektivní kognitivní zátěži.
Tři domény společenského kognitivního zahlcení podle Lahloua (Informační, Morální, Systémová) a jejich vzájemné propojení zesilované AI. Znázorňuje, jak AI (ikona mozku s čipem) působí jako zesilovač problémů v každé doméně (např. dezinformace v informační, eroze agentury v morální, křehkost v systémové) a jak se tyto problémy vzájemně ovlivňují a vytvářejí začarovaný kruh. Zdroj: Inspirováno koncepty z Lahlou, S. (2025). Mitigating Societal Cognitive Overload... arXiv:2504.19990.
III. Továrna na roztěkanost (a její rafinovanější nástupce)
Abychom plně pochopili, jak AI přispívá k zahlcení, musíme se podívat na ekonomické motory pohánějící velkou část digitálního světa. Již desítky let žijeme v tom, co se nazývá „ekonomika pozornosti“. Základní princip je prostý: pozornost je omezený zdroj, a proto cenná komodita. Platformy jako sociální sítě nebo vyhledávače soutěží o pozornost a pak ji prodávají inzerentům. AI zde hraje klíčovou roli jako nástroj pro optimalizaci obsahu a reklam tak, aby pozornost upoutaly a udržely co nejdéle, často bez ohledu na dopady na psychiku nebo informační kvalitu.
Avšak podle výzkumníků jako Jonnie Penn a Yaqub Chaudhary stojíme na prahu nové, potenciálně ještě problematičtější éry: „ekonomiky záměrů“. Zde už nejde primárně o pozornost, ale o záměry – touhy, plány a motivace, často ještě dříve, než si je jedinec sám plně uvědomí.
Jak to má fungovat? Klíčovou roli hrají velké jazykové modely (LLM) a konverzační AI. Tyto systémy dokážou analyzovat nejen to, co říkáme a píšeme, ale i jak to děláme – styl, tón, emoce, preference. Na základě obrovského množství dat a schopnosti vést „lidsky“ působící konverzaci mohou tyto AI nejen předvídat budoucí potřeby a přání, ale i jemně ovlivňovat rozhodování a formovat záměry. Představte si AI asistenta, který nejen doporučí film na základě nálady, ale zároveň nenápadně postrčí k tomu, abyste si koupili lístek do konkrétního kina nebo si předplatili určitou streamovací službu. Tyto „signály záměru“ se pak mohou stát předmětem obchodování v reálném čase mezi firmami, které chtějí budoucí potřeby uspokojit (nebo vytvořit). AI se tak mění z nástroje pro upoutání pozornosti na nástroj pro čtení a tvarování mysli – jakýsi telepatický prodejce vlastních, možná ještě nezformovaných, tužeb.
Etické otázky, které tento vývoj vyvolává, jsou… řekněme pikantní. Kdo bude vlastnit budoucí rozhodnutí? Jaký dopad bude mít tato hyperpersonalizovaná manipulace, provozovaná v masovém měřítku, na svobodnou vůli, autonomii, na férovost trhů nebo dokonce na demokratické procesy? Je to jen další, sofistikovanější forma marketingu, nebo se plížíme k dystopii, kde nejniternější pohnutky budou neustále monitorovány, analyzovány a komodifikovány? „Vaše myšlenky, ještě než je domyslíte, už mohou být na prodej,“ glosují to Penn a Chaudhary. Konečně efektivní způsob, jak zjistit, co si vlastně přejete k Vánocům... nebo koho volit. Jeden by skoro řekl, že staré dobré časy, kdy nám jen vnucovali prací prášek, byly vlastně idylické.
Ekonomika záměrů tak představuje více než jen evoluci ekonomiky pozornosti; je to potenciálně kvalitativní skok. Zatímco ekonomika pozornosti manipuluje především tím, co vidíme a kdy to vidíme, ekonomika záměrů míří hlouběji – na to, co chceme, proč to chceme, a v konečném důsledku na to, kdo jsme. Vyžaduje to ještě intenzivnější sběr osobních dat a vývoj sofistikovanějších, často skrytých, manipulativních technik využívajících schopností LLM. Tímto útokem na samotnou intencionalitu – schopnost formovat a sledovat vlastní cíle – se naplňují a prohlubují Lahlouovy obavy z eroze lidské agentury a morálního zahlcení. Pokud ztratíme kontrolu nad svými záměry, co pak ještě zbude? Ekonomika záměrů tak hrozí realizací těch nejtemnějších scénářů ztráty kontroly a morální dezorientace ve světě stále více řízeném AI.
Schematické srovnání Ekonomiky pozornosti a Ekonomiky záměrů. Levý panel ukazuje, jak Ekonomika pozornosti cílí na omezené zdroje uživatele – jeho čas a zrak (ikony oka a hodin) – pomocí reklamy a obsahu optimalizovaného na engagement. Pravý panel ilustruje Ekonomiku záměrů, kde AI (ikona robota/čipu) analyzuje a ovlivňuje samotné myšlenkové procesy a budoucí plány uživatele (ikona mozku s myšlenkovou bublinou obsahující cíl/otazník), s cílem predikovat a manipulovat jeho záměry ještě před jejich uskutečněním. Zdroj: Inspirováno koncepty z Penn & Chaudhary (2024) a Baeza-Yates & Fayyad (2022).
IV. Psychologická ordinace: Od únavy k vyčerpání systému
Není divu, že se v této informační smršti cítíme poněkud… opotřebovaně. Symptomy informačního zahlcení jsou dobře známé a popsány v mnoha studiích. Patří mezi ně chronický stres, úzkost, pocity vyhoření, zhoršená schopnost soustředění, únava z neustálého rozhodování (co číst, čemu věřit, na co kliknout), snížená pracovní produktivita a celková nespokojenost. Jsme jako motor běžící neustále na vysoké otáčky – dříve či později se musí zákonitě přehřát.
AI a související digitální technologie k tomuto stavu přispívají specifickými způsoby, jdoucími nad rámec pouhého objemu informací:
- Kognitivní odkládání (Cognitive Offloading): Stále více spoléháme na externí nástroje, aby za nás myslely. Proč si pamatovat fakta, když jsou na dosah ruky ve vyhledávači? Proč se namáhat s formulováním myšlenek, když generativní AI napíše koncept? Studie ukazují, že toto „odkládání“ kognitivních funkcí na technologii vede k menšímu zapojování vlastní paměti, analytických schopností a kritického myšlení. Zvláště znepokojivé je zjištění, že mladší generace, vyrůstající s těmito nástroji, vykazují vyšší míru závislosti na AI a zároveň nižší skóre v testech kritického myšlení. Pohodlí má svou cenu, jak se zdá.
- Atrofie kritického myšlení: Přímá souvislost mezi častým používáním AI nástrojů a oslabením kritického myšlení je dalším varovným signálem. AI sice může poskytnout rychlé odpovědi, ale nemusí nutně učit klást si správné otázky, hodnotit důvěryhodnost zdrojů, rozpoznávat nuance nebo syntetizovat informace do hlubšího pochopení. Může dát rybu, ale nenaučí rybařit – a možná dokonce vezme chuť se to učit.
- Paradox produktivity: AI je často prezentována jako nástroj pro zvýšení efektivity a produktivity. A v mnoha úlohách tomu tak bezpochyby je. Avšak celkový obraz může být složitější. Neustálý příval informací, nutnost filtrovat a ověřovat výstupy AI, přepínání mezi úkoly a digitální vyrušení mohou paradoxně vést ke snížení celkové produktivity, zvýšení chybovosti a pocitům frustrace a vyčerpání. Studie Microsoftu zjistila, že pracovníci tráví v průměru přes 16 hodin týdně jen e-maily a schůzkami, což jim ubírá čas a energii na skutečně kreativní a strategickou práci. Člověk by si skoro myslel, že cílem některých technologií je zaměstnat nás jejich obsluhou.
Existuje zde nebezpečná synergie mezi informačním zahlcením a kognitivním odkládáním. Čelíme příliš velkému množství informačních vstupů, což přirozeně tlačí k hledání úlevy. AI nástroje tuto úlevu nabízejí tím, že přebírají část kognitivní zátěže. Avšak toto delegování myšlení (odkládání) dále oslabuje vlastní kognitivní schopnosti, jako je kritické myšlení a paměť. Tím se stáváme ještě zranitelnějšími vůči dezinformacím a manipulaci, nedílné součásti zahlceného prostředí. Vzniká tak sestupná spirála: čím více jsme zahlceni, tím více inklinujeme ke spoléhání na AI. A čím více spoléháme na AI, tím méně jsme vybaveni k tomu, abychom zahlcení a jeho nástrahám kriticky čelili.
V. Existuje únikový východ? (nebo aspoň nouzový?)
Dobrá zpráva: Lahlou ve své studii nepřichází jen s neradostnou diagnózou, ale nabízí i náznaky možné terapie. Špatná zpráva: jako každá účinná léčba, i tato vyžaduje jisté úsilí a změnu životního stylu, a to nejen na individuální, ale především na kolektivní úrovni. Lahlou nepředkládá hotové recepty, spíše identifikuje klíčové oblasti a směry, kterými bychom se měli ubírat, pokud nechceme skončit jako společnost permanentně „na kapačkách“ informačního přetížení.
Lahlouovy návrhy lze shrnout do tří hlavních kategorií:
Tabulka 1: Lahlouův receptář proti společenskému kognitivnímu zahlcení
Kategorie | Klíčové Návrhy (dle Lahlou ) |
---|---|
Institucionální Adaptace | Zřízení nezávislých agentur pro etiku a dohled nad AI (audit rizikových systémů, etické směrnice, vzdělávání veřejnosti). Investice do center pro digitální gramotnost a kognitivní odolnost (vývoj kurikul kritického myšlení, mediální gramotnosti, zvládání zahlcení). Posílení participativního řízení AI (např. online platformy pro informovanou veřejnou debatu o AI politikách). |
Výzkumné Směry | Kvantifikace kognitivních a psychologických dopadů různých AI systémů. Identifikace zranitelných populací a specifických kognitivních slabin vůči zahlcení. Vývoj metrik pro měření společenského kognitivního zahlcení a odolnosti. Prioritizace vývoje designových principů pro AI zaměřenou na člověka a odolnou vůči zahlcení (minimalizace kognitivní zátěže, maximalizace lidské agentury, zkoumání nových rozhraní, efektivita vysvětlitelné AI (XAI) v kontextu zahlcení). |
Politická Opatření | Zvýšení regulace algoritmické transparentnosti a odpovědnosti (povinná transparentnost pro rizikové AI, audity, jasná odpovědnost). Reforma ekonomiky pozornosti (omezení škodlivých algoritmů maximalizujících engagement, regulace zesilování škodlivého obsahu, legislativa typu "právo se odpojit", podpora alternativních mediálních modelů). Implementace robustních pracovních a sociálních záchranných sítí pro éru automatizace (posílení sociálních systémů, investice do rekvalifikací a celoživotního vzdělávání, podpora automatizace zaměřené na člověka). |
Zdroj: Syntéza návrhů z Lahlou, S. (2025). Mitigating Societal Cognitive Overload... arXiv:2504.19990.
Tato tabulka přehledně shrnuje komplexní soubor návrhů, které Lahlou předkládá jako možné cesty ke zmírnění společenského kognitivního zahlcení. Je zřejmé, že jeho přístup je primárně systémový a strukturální.
Samozřejmě, existují i běžně doporučované individuální strategie, jak se s informačním přetížením vyrovnat: pečlivější filtrování informací, lepší time management, praktikování mindfulness, občasný digitální detox, nesledování sociálních sítí před spaním a tak dále. A jistě, staré dobré rady jako vypnout notifikace, jít se projít do lesa a nemít v prohlížeči otevřeno třicet záložek najednou mohou přinést dočasnou úlevu. Pomůže to? Možná na chvíli. Ale spoléhat se jen na ně je trochu jako léčit zápal plic aspirinem – může to srazit horečku, ale neřeší to příčinu nemoci.
Právě v tom spočívá klíčové napětí. Lahlou a další diagnostikují systémový, společenský problém, který vyžaduje systémová, kolektivní řešení – změny v regulaci, v designu technologií, v ekonomických pobídkách, ve vzdělávání. Tato řešení jsou však politicky náročná, obtížně implementovatelná a často narážejí na mocné zájmy. Individuální strategie jsou naproti tomu snadněji aplikovatelné, ale samy o sobě pravděpodobně nedostatečné. Mohou dokonce paradoxně odvádět pozornost od potřeby hlubších, strukturálních změn – podobně jako důraz na individuální recyklaci může zastínit potřebu systémové změny v průmyslové výrobě a spotřebě. Skutečné řešení Lahlouova problému tak pravděpodobně nespočívá jen v naší osobní digitální hygieně, jakkoli je důležitá, ale vyžaduje právě ty obtížné a komplexní změny na úrovni politiky, technologií a společenských norem, které Lahlouovy návrhy reflektují.
VI. Závěr: Utopeni v datech, nebo pročištěni krizí?
Shrňme si to. Podle Salema Lahloua není společenské kognitivní zahlcení, které pociťujeme v éře AI, jen nějakou nepříjemnou civilizační chorobou nebo osobním selháním. Je to systémová krize, která podkopává naši schopnost rozumně uvažovat, efektivně jednat a kolektivně navigovat stále složitější svět. Co je ještě znepokojivější, toto zahlcení přímo brzdí naši schopnost zodpovědně řídit vývoj samotné umělé inteligence a předcházet jejím potenciálním rizikům, včetně těch existenčních. Zmírnění zahlcení se tak jeví nikoli jako luxus, ale jako nutný předpoklad pro jakékoli smysluplné sladění AI s lidskými hodnotami a pro zajištění naší dlouhodobé budoucnosti.
Je v tom však i jistý paradox, na který Lahlou také upozorňuje. AI, přestože problém zahlcení dramaticky zhoršuje, nás zároveň neúprosně nutí čelit hluboko „pohřbeným otázkám“, kterým jsme se jako společnost možná příliš dlouho vyhýbali: Co je skutečně spravedlivé? Jakou míru nerovnosti jsme ochotni tolerovat? Jak se postavíme k rizikům, která ohrožují naši samotnou existenci? Možná nás AI nejdřív musí pořádně přidusit informacemi a komplexitou, abychom se konečně probrali a začali se vážně zabývat tím, co je opravdu důležité. Krize jako katalyzátor prozření? Kdo ví.
Takže, situace je následující: máme diagnózu – společenské kognitivní zahlcení. Máme i sadu návrhů na léčbu – od regulace přes vzdělávání až po nový výzkum. Máme dokonce i jistou paradoxní naději, že nás tato krize může pročistit a posunout dál. Všechno je v podstatě připraveno k akci. Teď už jen zbývá... no, však víte. Možná bychom si o tom nejdřív měli založit nějakou expertní komisi? Nebo raději dvě?
VII. Klíčová slova
Kognitivní zahlcení, informační přetížení, umělá inteligence, AI, Salem Lahlou, společenské kognitivní zahlcení, algoritmická manipulace, filter bubbles, dezinformace, ekonomika pozornosti, ekonomika záměrů, AI etika, AI bezpečnost, systémová rizika, komplexita, Joseph Tainter, kognitivní odkládání, kritické myšlení, psychologický dopad, digitální well-being, arXiv:2504.19990.
Zdá se, že Salem Lahlou při psaní o kognitivním zahlcení nemyslel na Ventolinův majstrštyk "Když jedu z hub". Přesto refrén "Mý auto je jezdící klub" a zvolání "Viktor potřebuje víc anarchie!" dokonale vystihují pocit informačně přetížené mysli toužící po úniku z řádu algoritmů. Ať už je "makovej závin" metaforou sladké nevědomosti nebo jen prostou pochutinou po mykologickém dobrodružství, jedno je jisté: i tento hudební "content" bojuje o naši drahocennou pozornost a přispívá k veselému chaosu v hlavě.
VIII. Další čtení
Primární zdroj:
- Lahlou, S. (2025). Mitigating Societal Cognitive Overload in the Age of AI: Challenges and Directions. arXiv preprint arXiv:2504.19990. https://arxiv.org/abs/2504.19990
Srovnatelné studie a kontext (výběr):
- Chaudhary, Y., & Penn, J. (2024). Beware the Intention Economy: Collection and Commodification of Intent via Large Language Models. Harvard Data Science Review, Special Issue 5. https://www.google.com/search?q=https://doi.org/10.1162/99608f92.21e6bbaa
- Huszár, F., Ktena, S. I., O'Brien, C., Belli, L., Schlaikjer, A., & Hardt, M. (2021). Algorithmic amplification of politics on Twitter. arXiv. https://arxiv.org/abs/2110.11010 (Poznámka: Existuje také recenzovaná verze tohoto článku publikovaná v Proceedings of the National Academy of Sciences, 119(1), e2025334119. https://doi.org/10.1073/pnas.2025334119)
- Baeza-Yates, R., & Fayyad, U. M. (2022). The Attention Economy and the Impact of Artificial Intelligence. In H. Werthner, E. A. Lee, C. Ghezzi, J. Nida-Rümelin, E. Prem, I. Tjoa, & G. Kappel (Eds.), Perspectives on Digital Humanism (pp. 117–122). Springer Cham. https://doi.org/10.1007/978-3-030-86144-5_17
- Kliman-Silver, C., Schlüter, M., & Lade, S. J. (2024). A Dynamic Network Model of Societal Complexity and Resilience Inspired by Tainter's Theory of Collapse. Stockholm Resilience Centre Technical Report. Získáno z https://www.stockholmresilience.org/publications/publications/2024-10-24-a-dynamic-network-model-of-societal-complexity-and-resilience-inspired-by-tainters-theory-of-collapse.html
- Gerlich, M. (2025). AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking. Societies, 15(1), 6. https://doi.org/10.3390/soc15010006
- Shen, J. H., & Guestrin, C. (2025). Societal Impacts Research Requires Benchmarks for Creative Composition Tasks. arXiv. https://arxiv.org/abs/2504.06549
- Singh, A., Taneja, K., Guan, Z., & Ghosh, A. (2025). Protecting Human Cognition in the Age of AI. arXiv. https://arxiv.org/abs/2502.12447
- Arnold, K. B., Goldschmitt, M., & Rigotti, T. (2023). Dealing with information overload: a comprehensive review on causes, consequences, and interventions. Frontiers in Psychology, 14, 1122200. https://doi.org/10.3389/fpsyg.2023.1122200
Klasické práce (nepovinně):
- Tainter, J. A. (1988). The Collapse of Complex Societies. Cambridge University Press.
- Kahneman, D. (2011). Thinking, Fast and Slow. Farrar, Straus and Giroux.
Podněty ke čtenářské diskuzi
- Individuální vs. systémová odpovědnost: Nakolik je podle vás kognitivní zahlcení problémem jednotlivce, který by měl "lépe filtrovat" a "více se soustředit", a nakolik jde o systémový problém vyžadující regulace a změny na úrovni platforem a institucí? Je spravedlivé přenášet odpovědnost na uživatele, když design platforem je často záměrně zahlcující?
- Ekonomika záměrů – nevyhnutelná budoucnost, nebo dystopie, které lze zabránit? Myslíte si, že koncept "ekonomiky záměrů", kde AI nejen predikuje, ale i aktivně formuje naše přání, je jen dalším stupněm marketingu, nebo představuje skutečně novou kvalitu ohrožení autonomie? Jaké konkrétní kroky by mohly takovému vývoji čelit?
- AI jako katalyzátor prozření? Lahlou naznačuje, že krize kognitivního zahlcení, akcelerovaná AI, by nás paradoxně mohla donutit řešit "pohřbené otázky". Vidíte ve svém okolí nebo ve společnosti nějaké známky toho, že by nás současná informační a technologická smršť skutečně vedla k hlubší reflexi a hledání skutečných hodnot, nebo spíše k další apatii a úniku?
Gen pro nedůvěru strojům
Autor: Stanislav Mihulka (23.07.2012)
Průlomový systém elektronického boje Pulsar ovládá umělá inteligence
Autor: Stanislav Mihulka (07.05.2024)
Inteligence GameNGen sní o legendární videohře Doom z roku 1993
Autor: Stanislav Mihulka (30.08.2024)
Vyzraje umělá inteligence na vyznavače konspiračních teorií?
Autor: Jaroslav Petr (14.09.2024)
Čínští Pudu Robotics vypustili humanoida D9, který chůzí předhoní člověka
Autor: Stanislav Mihulka (27.12.2024)
Umělá inteligence navrhla velmi podivné bezdrátové čipy. Ale fungují skvěle
Autor: Stanislav Mihulka (09.01.2025)
Duše ve stroji: Jak psychologie mění svět umělé inteligence
Autor: Viktor Lošťák (05.05.2025)
Diskuze:
"nutný předpoklad pro jakékoli smysluplné sladění AI s lidskými hodnotami a pro zajištění naší dlouhodobé budoucnosti."
Martin Novák2,2025-05-07 13:27:10
AI prostě není dlouhodobě slučitelná s lidskými hodnotami. Ovšem jistým řešením je že během jedné generace přestane záležet na nějakých lidských hodnotách.
Opakující se vzorec ve vývoji civilizace (nárůst komplexity, offload na parlament/vládnoucí třídu, jejich zhroucení (jsou to jenom lidi) a restart) je narušen AI která si jednak s koplexitou poradí daleko za rámec člověka a navíc se vyvíjí 10milionkrát rychleji.
Během jedné generace bude lidstvo odstaveno od válu (někteří jedinci si můžou udržovat iluzi řízení) a během 3-4 generací (80-100 let) bude lidstvo jenom další rod primátů používající složitější nástroje...
Re: "nutný předpoklad pro jakékoli smysluplné sladění AI s lidskými hodnotami a pro zajištění naší dlouhodobé budoucnosti."
D@1imi1 Hrušk@,2025-05-07 14:57:25
Co jsou to lidské hodnoty? To, co lidé prohlašují, protože se jim to líbí a nebo to, co lidé dělají, protože se jim to líbí? Já jen abych věděl, o co že se to vlastně přijde, když nás AI nahradí a mohl jsem si srovnat, jestli mi to má být líto :)
Další čtení
Ludvík Urban,2025-05-07 12:34:35
Při vší úctě, celá řada odkazů uvedených v "Další čtení" vedou na články úplně jiných autorů, články s jiným názvem/tématem a dokonce se tam dá najít i "DOI not found"!
Nedávno jsem tu v jedné reakci navrhl, aby "Osel nelezl do zelí VTM a Ǎbíčku".
Teď se nacházíme mnohem níž a možná i docela stranou.
Kolega navrhuje hypotézu, že záplava článků Viktora Lošťáka je ve skutečnosti sociální experiment na čtenářích Osla, který má sledovat jejich reakce na text produkovaný automatem bez možnosti korekce chyb a faktů.
Re: Další čtení
Karel Cába,2025-05-07 14:23:43
Děkuji za upozornění! Opraveno, pokud zjistíte další nesrovnalosti, dejte vědět.
Nejde o experiment žádného druhu, tím méně sociální. Nové nástroje mají prostě nové chyby, a ty je třeba odchytat. Feedback je nutný, pokračujte. Děkuji za spolupráci,
Viktor Lošťák
Pro přispívání do diskuze musíte být přihlášeni