Digitální stíny minulosti: Jak se Skynet a Hitler potkávají ve vaší kapse  
Znáte to. Projíždíte zprávy na mobilu, lajkujete fotky koťátek a najednou na vás vyskočí reklama na něco, o čem jste si před chvílí jen povídali s kolegou.

Nebo čtete o superchytrých dronech, co si samy vybírají cíle, a říkáte si, jestli to není už trochu moc sci-fi. A co teprve software ve škole vašich dětí, který jim „optimalizuje“ učení? Vítejte ve světě umělé inteligence (AI), která nám slibuje úžasnou budoucnost. Jenže... co když pod tím nablýskaným povrchem číhají staré známé strašáky?

 

Nedávno jsem narazil na studii, která mě přinejmenším zaujala, ne-li trochu vyděsila. Hasan Oguz z Turecka se totiž odvážil udělat něco docela provokativního. V práci nazvané „Autoritářské rekurze“ (což zní samo o sobě dost zlověstně) postavil vedle sebe tři věci, které by vás asi nenapadlo spojovat: nacistické Německo, vraždící AI Skynet z Terminátora a běžné aplikace AI, které možná právě teď používáte. Šílené? Možná. Ale Oguz tvrdí, že mechanismy kontroly, manipulace a omezování naší svobody nejsou jen reliktem minulosti nebo námětem pro Hollywood. Podle něj se tyhle vzorce neustále vrací v nových, digitálních podobách a nenápadně formují naši realitu.

 

Digitální stíny minulosti v podání AI. Kredit: MS Copilot

Pojďme se na tuhle trochu mrazivou, ale podle mě důležitou myšlenku podívat blíž. Zkusme vystopovat ozvěny totality a sci-fi nočních můr v kódu, který čím dál víc řídí naše životy. A slibuju, nebudeme jen strašit. Podíváme se i na to, co s tím.

 

Duch Skynetu v moderní válce

Pamatujete na Terminátora? Vojenská AI Skynet se „probudí“, rozhodne, že lidstvo je problém, a... no, víte jak. Jasně, je to film. Ale Oguz argumentuje, že logika Skynetu – tedy nekontrolovaná autonomie stroje vedoucí ke katastrofě – se nepříjemně podobá obavám z reálných „smrtících autonomních zbraňových systémů“ (LAWS).

 

Mluvíme o dronech a dalších hračkách, které dokážou samy najít, sledovat a zlikvidovat cíl. Bez toho, aby u toho seděl člověk s joystickem. Zastánci říkají: „Přesnější, méně omylů, méně obětí!“. Kritici (a Oguz s nimi) se ptají: „A kdo ponese odpovědnost, když autonomní dron sejme svatbu místo teroristů? Jak zajistíme, aby algoritmus dodržoval pravidla války, když je to pro nás často neprůhledná černá skříňka?“.

 

Už to není jen teorie. V konfliktu v Náhorním Karabachu (2020) se objevily takzvané „vyčkávací munice“ jako izraelský Harop – drony kamikadze, které krouží a samy si hledají, do čeho narazit. Posouváme hranici rozhodování o životě a smrti na stroje a měli bychom si sakra dobře rozmyslet, jestli je to dobrý nápad. Oguz varuje: logika Skynetu, kdy se technologie vymkne kontrole, je nebezpečně blízko. A aby toho nebylo málo, systémy rozpoznávání obličejů, které tyto zbraně mohou používat, jsou často „rasistické“ – hůře rozpoznávají lidi s tmavší pletí, což zvyšuje riziko tragických omylů u určitých skupin.

 

Hitlerjugend 2.0, nebo jen lepší učení? AI ve škole

Přesuňme se z bojiště do školních lavic. I tady Oguz nachází znepokojivé paralely, tentokrát s nacistickým Německem. To systematicky využívalo školství a mládežnické organizace (jako Hitlerjugend) k indoktrinaci, potlačování kritického myšlení a vynucování jediné správné ideologie. Jak to souvisí s AI?

 

Moderní vzdělávací technologie (EdTech) na AI hodně sází. Adaptivní platformy (znáte třeba Duolingo?) slibují učení na míru každému studentovi. Zní to skvěle, ne? Personalizace, efektivita... Ale Oguz upozorňuje na stinnou stránku. Algoritmy mohou nevědomky vytvářet „filtrační bubliny“. Tím, že studentovi ukazují jen to, co systém vyhodnotí jako „vhodné“, mohou omezovat jeho rozhled, potlačovat různorodost a vést k intelektuálnímu zúžení, které až příliš připomíná ono ideologické silo.

 

 

A pak je tu dohled. Software, který pomocí AI sleduje studenty u online zkoušek (jako Proctorio nebo ExamSoft ) – kam koukají, jestli moc nekroutí hlavou, co se šustne v pozadí – aby odhalil podvádění. Tyto nástroje čelí kritice za chyby, diskriminaci (ano, zase často vůči menšinám) a neprůhlednost. V Číně jdou ještě dál: program „Ostré oči“ (Sharp Eyes) pomocí kamer s rozpoznáváním emocí sleduje pozornost a náladu dětí v reálném čase a data posílá učitelům i úřadům. Oguz se ptá: Nevychováváme si takhle generaci zvyklou na neustálý dohled a algoritmické posuzování? Není „optimalizace učení“ někdy jen hezčí název pro „optimalizaci poslušnosti“? Přiznám se, že z téhle představy mi trochu běhá mráz po zádech.

 

Neviditelná ruka propagandy: Jak algoritmus tvaruje váš názor

Třetí oblastí jsou média a veřejný diskurz. Nacisté byli mistři propagandy, využívali tisk, rádio a film k šíření své ideologie a manipulaci. Dnes tuto roli z velké části přebírají algoritmy sociálních sítí a dalších online platforem.

 

AI řídí, co vidíte na Facebooku, TikToku nebo Twitteru (X). Cílem často není dát vám vyvážený přehled, ale udržet vás co nejdéle u obrazovky – maximalizovat „engagement“. A co nás udrží? Často obsah, který je senzační, emocionální, polarizující. Algoritmy tak mohou snadno vytvářet a posilovat „ozvěnové komory“ a „filtrační bubliny“, kde vidíme jen to, co už si myslíme. To nahlodává naši schopnost vést rozumnou debatu a dělá nás zranitelnějšími vůči dezinformacím a manipulaci (vzpomeňme na kauzy jako americké volby 2016 nebo Brexit ). V autoritářských zemích jako Čína se AI používá k masivní cenzuře a posilování prorežimních narativů. Výsledek? Podle Oguze (a dalších, jako je Shoshana Zuboff ) postupné podrývání důvěry v média, instituce a demokracii samotnou.

 

Co se tedy opakuje? Anatomie algoritmické kontroly

Když se na to podíváme, Oguz nachází několik společných, opakujících se vzorců, jak se AI může stát nástrojem kontroly:

  1. Eroze lidské kontroly a autonomie: Stroj rozhoduje místo člověka, často bez možnosti smysluplného zásahu nebo odvolání.
  2. Zesilování předsudků (bias): AI trénovaná na datech z našeho neférového světa tyto křivdy nejen kopíruje, ale často i prohlubuje, což postihuje především marginalizované skupiny.
  3. Normalizace dohledu: Sledování našeho chování se stává všudypřítomným a je ospravedlňováno bezpečností či efektivitou.
  4. Neprůhlednost (Opacity): Rozhodovací procesy AI jsou často „černou skříňkou“, což znemožňuje kontrolu a odpovědnost.

Pointa Oguzovy studie je silná a znepokojivá: Nejde jen o technologii. Jde o hluboce zakořeněné vzorce moci a kontroly v novém hávu. Ignorovat historii (a dokonce i sci-fi varování) znamená riskovat, že je budeme slepě opakovat.

 

Je světlo na konci digitálního tunelu?

Tak co, máme se bát digitální totality? Oguz (a já s ním doufám) si to nemyslí. Jeho studie není jen varování, ale i výzva k akci. Co můžeme dělat?

  • Člověk ve velíně (Human-in-the-Loop): Navrhovat AI tak, aby důležitá rozhodnutí vždy zůstala v lidských rukou nebo pod lidskou kontrolou.
  • Algoritmická transparentnost: Snažit se o AI, jejíž rozhodování můžeme pochopit a zkontrolovat („vysvětlitelná AI“, XAI).
  • Etické audity: Pravidelně a systematicky hodnotit AI systémy z hlediska rizik, předsudků a nezamýšlených důsledků.
  • Kritická AI gramotnost: Učit se (a učit další generace), jak AI funguje, jaké má limity a jak kriticky hodnotit to, co nám předkládá.
  • Participativní design a správa: Zapojit do vývoje a správy AI širší spektrum lidí – nejen techniky, ale i etiky, sociology, právníky a hlavně ty, kterých se technologie týká.

Možná to nejdůležitější poselství je: Technologie není osud. Je to nástroj. My rozhodujeme, jak ho použijeme – našimi hodnotami, naší ostražitostí. Pokud chceme AI, která posiluje svobodu a lidskost, musíme se aktivně bránit tomu, aby kopírovala logiku útlaku.

 

Takže až příště budete scrollovat nebo používat nějakou tu „chytrou“ appku, zkuste se na ni podívat Oguzovýma očima. Zeptejte se sami sebe: Komu to slouží? Jaké hodnoty jsou v tom kódu? A co můžu udělat já, aby digitální svět byl místem, kde chci žít?

Protože právě v těchhle otázkách a naší ochotě hledat odpovědi je klíč k tomu, abychom nebyli jen pasivními uživateli, ale aktivními tvůrci naší budoucnosti. A to je přece ten nejlepší vztah, jaký můžeme mít – ne nutně k autorovi článku, ale k naší vlastní budoucnosti. Co myslíte?

 

Kdo jsou autoři, kteří nás varují? (Výběr z Oguzovy studie a kontextu)

  • Hasan Oguz: Autor studie „Autoritářské rekurze“, která je základem tohoto článku. Fyzik z Pamukkalské univerzity v Turecku, který propojuje historii, sci-fi a současnou AI, aby odhalil znepokojivé vzorce kontroly.
    • Oguz, H. (2025). Authoritarian Recursions: How Fiction, History, and Al Reinforce Control in Education, Warfare, and Discourse. arXiv preprint arXiv:2504.09030v1 [cs.CY]. [Tato studie]
  • Shoshana Zuboff: Emeritní profesorka Harvard Business School. Její klíčové dílo o „dohledovém kapitalismu“ popisuje, jak technologické firmy těží naše osobní data pro zisk a kontrolu chování.
    • Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs.
  • Cathy O'Neil: Matematička a datová vědkyně. Její kniha „Weapons of Math Destruction“ (Matematické zbraně hromadného ničení) varuje před tím, jak neprůhledné a často nespravedlivé algoritmy ovlivňují naše životy – od úvěrů po zaměstnání.
    • O'Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown Publishing Group.
  • Eli Pariser: Internetový aktivista. Proslavil se konceptem „filtrační bubliny“, který popisuje, jak nám personalizované algoritmy na webu ukazují jen to, s čím pravděpodobně budeme souhlasit, a izolují nás od odlišných názorů.
    • Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. Penguin Press.
  • Joy Buolamwini & Timnit Gebru: Výzkumnice (Gebru dříve v Google, Buolamwini na MIT). Jejich průlomová práce „Gender Shades“ odhalila významné rasové a genderové předsudky v komerčních systémech pro rozpoznávání obličejů.
    • Buolamwini, J. and Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. Proceedings of Machine Learning Research (PMLR), 81:1-15. (Oguz cituje i další práci Raji & Buolamwini ).
  • Ben Williamson: Výzkumník v oblasti vzdělávacích technologií (EdTech). Zkoumá, jak digitální technologie, sběr dat a AI mění vzdělávání, často se zaměřením na rizika dohledu a komodifikace.
    • Williamson, B. (2017). Big Data in Education: The Digital Future of Learning, Policy and Practice. SAGE Publications. (Oguz cituje i další jeho práci).

(Poznámka: Tento seznam není vyčerpávající bibliografií Oguzovy práce, ale výběrem klíčových autorů relevantních pro témata diskutovaná v článku.)

Datum: 24.04.2025
Tisk článku

Související články:

Neznalí a neinformovaní jsou podporou demokracie     Autor: Josef Pazdera (19.12.2011)
Američtí republikáni a demokraté mají odlišné sexuální fantazie     Autor: Stanislav Mihulka (31.10.2018)
Jaderná energie a demokracie     Autor: Vladimír Wagner (11.07.2024)
Stárnutí duchů ve stroji? Pokročilé generativní inteligence trpí demencí     Autor: Stanislav Mihulka (21.12.2024)
Umělá inteligence navrhla velmi podivné bezdrátové čipy. Ale fungují skvěle     Autor: Stanislav Mihulka (09.01.2025)
První syntetická biologická inteligence jede na lidských neuronech     Autor: Stanislav Mihulka (04.03.2025)
Psychologie AI: Generativní inteligence je možné traumatizovat válkou či násilím     Autor: Stanislav Mihulka (31.03.2025)



Diskuze:

A kdo ponese odpovědnost, když autonomní dron sejme svatbu místo teroristů?

Pavel Kaňkovský,2025-04-25 14:14:25

A kdo nese odpovědnost, když to udělá pilotované letadlo (nebo pilotovaný dron)?

Já bych řekl, že se obvykle zjistí, že to není ničí vina, např.: Pilot za to nemůže, protože jednal podle rozkazu. Velitel za nic nemůže, protože dal rozkaz na základně informací od analytiků. Analytici za nic nemůžou, protože jen vyhodnotili informace od operativců, jak nejlépe uměli. Operativci za nic nemůžou, protože jen hlásili, co zjistili od svých zdrojů.

Stejně tak to lze řešit i v případě autonomních dronů. ;)

Odpovědět


Re: A kdo ponese odpovědnost, když autonomní dron sejme svatbu místo teroristů?

F M,2025-04-28 12:38:28

A nemusí jít ani o chybu, nebo nehodu vemte si třeba Palestinu poslední rok a půl. Nebo konflikty zemí kde nestačí jen těch pár kusů "chytré"/přesné munice co jsou skladem, pokud vůbec země nějakou má. Vina se řeší jen tehdy pokud se musí a opravdu není zbytí.
Už dlouho říkám, že ta automatizace je jen věc času. Čeká se jen na větší konflikt, už na Ukrajině se ty drony ovládají spíše jen proto (a do té doby dokud to pomůže) aby něco trefily a povolení se až tak úplně nepožaduje, nebo mám takový dojem moc tu techniku nesleduji. Zvlášť se to bude hodit ke zvládání neposlušného obyvatelstva, ať již v pořádkové nebo smrtící podobě.

Odpovědět

Není toto kořen problému?

D@1imi1 Hrušk@,2025-04-25 11:55:47

Děkuji za článek. Překvapila mě věta: "A co můžu udělat já, aby digitální svět byl místem, kde chci žít?"

Někdo chce žít v digitálním světě? Bohužel ano, ale z toho pramení ta zranitelnost. Rady pana Oguze jsou rozumné, pokud by se ale podle nich řídila dostatečně významná část populace. Část lidí vůbec nemá mentální kapacitu, aby problém chápala, další část sice problém pochopit dokáže, nemá ale chuť či sílu vzdorovat pohodlnějí cestě. Menšina by měla chuť a sílu vzdorovat, v demokracii ale rozhoduje většina. A zcela naivní by bylo čekat, že se radami pana Oguze dobrovolně začnou řídit hráči jako Facebook, X, Youtube, TikTok, iDnes...

Manipulace uživateli na internetu má zhruba tři fáze:
1. Vytvořit stránku či appku, kterou uživatel bude rád používat
2. Připoutat si uživatele pomocí monopolní služby či chytlavých algoritmů až na úroveň závislosti (pokud jde o jediný či hlavní komunikační kanál, uživatel se stává závislým - ať duševně či technicky)
3. Na závislého uživatele působit reklamou a ve "feedu" mu podsouvat informace, za které si někdo zaplatil, aby se mu přednostně zobrazily

Cesta podle mého názoru je zbavit se závislosti na digitáním světě a nebo počítat s "algoritmokracií".

Odpovědět


Re: Není toto kořen problému?

D@1imi1 Hrušk@,2025-04-25 12:01:27

P.S. Možná bylo myšleno spíše "digitalizovaný svět", ale reaguji na to, jak to znělo doslovně :)

Odpovědět


Re: Není toto kořen problému?

Malomestak Veliky,2025-04-27 08:46:41

Myslím že to vychází z trhu, protože takhle funguje obecně "online byznys" v dnešní době:


1. Vytvořím nějakou věc, která bude "zázračně dobrá" výměnou za neustálé ztráty, které jsou dotované investory, čekajícími na svůj zisk, tady vůbec nevadí, že jsem ve ztrátě. Sem si můžeme dosadit libovolnou věc od levné ("zadarmo") aplikace pro "schopnou" umělou inteligenci po moderní bateriová auta která výrobci často prodávají s kolosálními ztrátami.
2. Ve chvíli, kdy ovládnu trh a uživatelé na mém produktu začnou být nějakým způsobem závislí, zvýším ceny, abych mohl začít splácet investorům vložené peníze, případně měl vůbec na provoz. Opět poměrně běžná věc.
3. Pokud zvýšení cen z nějakého důvodu není možné (zůstala nějaká konkurence, produkt je i přes ztráty poměrně špatně dostupný pro masy) tak místo zvýšení cen budu monetizovat uživatelskou základnu, prodejem dat o uživatelích nebo právě manipulací uživatelů, což mi zájmové skupiny rády zaplatí.


Tenhle proces je dle mého tak zaběhnutý, že právě optimalizací "virálního zabírání trhu" a "výnosu z podílu na trhu" vznikly prostory pro manipulaci s lidmi, kdy není problém zaplatit skupiny velmi talentovaných vědců, kteří pak pracují na plný úvazek na tom jak správně zmanipulovat člověka. Stejně je to pak s programátory kteří sociologické experimenty uvádějí do praxe.


Politika pak k tomuhle přišla až když bylo vidět, že je v tom možnost získat moc, což je pro politiku typické. Je otázka co s tím, teď už všichni, ať už jsou to korporace podílející se na výrobě softwaru či hardwaru, poskytovatelé služeb nebo politické organizace, mají motivaci dál lidi manipulovat a současný systém zachovat.

Myslím taky že "algoritmokracie" ve skutečnosti není nadvláda "AI", ale spíš lidí kteří s ostatními manipulují, což není nic nového - dřív se manipulovalo pomocí náboženství, později filosofie a propagandy, a teď je to pomocí přehlcení informacemi na internetu.

https://www.reddit.com/r/quotes/comments/1bn3k0h/once_men_turned_their_thinking_over_to_machines/

Odpovědět


Re: Re: Není toto kořen problému?

D@1imi1 Hrušk@,2025-04-27 15:59:48

Souhlasím (i s tím citátem v odkazu). Paradoxní je, že velkou část těch služeb, o kterých je řeč, by šlo snadno přestat používat - buď jsou zbytné, nebo za ně existují alternativy. Ale většina lidí nepřestane. Pak si nelze stěžovat.

Odpovědět


Re: Re: Re: Není toto kořen problému?

F M,2025-04-28 13:27:23

Nemusí jít jen o řízení AI, lidé si tu selekci mezi svými "přáteli" provedou i bez ní. Zvlášť když již ztrácí odolnost proti jinému názoru a cokoli nesouhlasného je irituje a diskuse je kolaborace s nepřítelem.
To, že lidé jsou v podstatě stále stejní je také pravda, jen ty bubliny nevznikají lokálně na lokálnější témata na návsi, ale na internetu, kde si nemá problém tu svou najít asi kdokoli. To zase umožňuje rozvoj kdejakých nesmyslů až nebezpečných.
Člověk (asi až na většinu autistů a pár jedinců) je vyloženě závislý na kontaktu s lidmi i tom jejich souhlasu, chápu to vývojově od tlupy (ves, komunitu...) uspokojení (a vůbec ta potřeba) pocitu, že je tlupou přijímaný a ceněný, jde i o cenu pro partnery, i když se to nevyužije ty obvody v tom mozku jsou, bezpečí, to že nebude ten kdo bude v krizi první obětován). No a ta sociální média poskytují dávku kdykoli a ve vysoké kvalitě/šíři. My si to třeba ani tak moc neuvědomujeme, ale mladší to mají dané tím, že v tom vyrůstali a mají to v mozku víc "zadrátované" jak realitu.
Trochu budu nesouhlasit s těmi mentálními kapacitami, dnes je svět tak složitý, že to neprohlédne celé asi nikdo. Samozřejmě ty "minimální požadavky" pro konkrétní témata nezpochybňuji, jenže to v reálu není o tom kdo tomu rozumí (netechnické věci), ale o tom s čím je kdo "ztotožněn". I z těch výzkumů které byly zde na Oslu vyplívá, že ve své bublině to kritické myšlení příliš nepoužívá nikdo, bez ohledu na intelekt a vzdělání, všichni jsou zkrátka lidé. To mi docela vadí když se voliči řadí do skupin a nevysvětlí se to, že když voliči s VŠ vzděláním volí více tak jak volí, tak to není kvůli jejich schopnostem, ale kvůli očekávání toho, že to konkrétně pro ně bude výhodné, oni stejně, spíše ještě vyhraněněji, volí i úspěšní živnostníci a podnikatelé s ZŠ/učilištěm. Toto se dříve do těch komentářů zahrnovalo, až v poslední době se to nehodí, respektive ta manipulace díky očekávanému zisku není až takový problém jako dříve, kdy byla alespoň nějaká objektivita. V podstatě se ty manipulace nesou celými médii (různými směry i medii) a s pomocí AI bude hůř. I u těch jednoduchých není problém zavalit protivníka horou dobře znějících nesmyslů (třebas jen připravených do diskuse), které je potom v reálném čase (z hlavy) nemožné vyvrátit a potom se staví na virtuálních základech vzdušné zámky (virtuální baterie, pardon když slyším tuhle reklamu tak téměř brečím/jsem nasr./chechtám se já).

Odpovědět


Re: Re: Re: Re: Není toto kořen problému?

D@1imi1 Hrušk@,2025-04-28 18:07:31

Ad. mentální kapacita - neměl jsem na mysli obecnou schopnost rozpoznat sociální bubliny, bias a manipulaci. Měl jsem na mysli konkrétně schopnost počítat se třemi věcmi:
1. Že sociální sítě a další kanály SE SNAŽÍ jednotlivcem pomocí algoritmů manipulovat (vytvářet závislost a masírovat mozek)
2. Že sebepotvrzování se v bublinách jedince nerozvíjí a činí společnost zranitelnou
3. Že závislost na internetových službách vytváří zranitelnost. Např. doufám, že se nedočkám doby, kdy na zastávce nebude jízdní řád, protože "každý má přece appku" (akorát ta appka požaduje buď sbírat osobní data nebo předplacení, čímž jí "prozradíte", kdo přesně jste). A když zkolabuje internet, už si nezjistíte nic. Ale to je spíše takový nevinný příklad. Asi patnáct let zpátky Nohavica naivně tvrdil, že díky internetu už nemůže přijít nová totalita, protože by se lidé virálně domluvili na odporu. HA HA HA. (Udělalo na něj totiž dojem, jak se během chviličky virálně rozšířil jeho song Milionář.)

Zároveň se vsadím, že kdyby byla snaha plošně zakázat nebo přísně zregulovat vybrané typy sociálních sítí, větší část obyvatelstva by to pobouřilo. V Austrálii jsou, myslím, snahy zakázat sociální sítě pro mladistvé do 15 let. Bude zajímavé sledovat, jestli z toho něco bude, nebo to vyšumí. A upřímně mi je záhadou, proč USA už nezakázaly TikTok, aby měly všechny sociální sítě pod domácí kontrolou. V minulém volebním období to Trump málem udělal, ale pak z toho sešlo. Teď je mnohem víc v ráži ale čínský TikTok neřeší.

Aby to nebylo špatně pochopeno - nevím, jestli bych protlačoval plošné zákazy (možná u těch dětí). Ale spíš nechápu, že to těm uživatelům nevadí. Zkusil jsem používat Facebook, ale po relativně krátké době jsem od toho upustil, protože čas tam strávený byl strašně neproduktivní. Celý jejich algoritmus je postavený tak, abyste tam brouzdal a bloudil a měl co nejměnší kontrolu nad tím, co tam vlastně děláte. Příspěvky ve skupinách se defaultně nezobrazují všechny, ani se nezobrazují striktně chronologicky, nic není schematické. Myslím, že tohle vadí hodně lidem, ale pak si zase řeknou, že tam mají všechny kontakty - ale tady by právě stačilo přejít na jinou formu komunikace (osobní, mobil, mail, Signal...). Podobně nechápu, proč je Amazon nejúspěšnější e-shop na světě, když tam zboží není rozumě setříděné, ale algoritmus Vám ho na základě vyhledávání sám podsouvá. Samozřejmě ne to nejvýhodnější. V takovém e-shopu bych nakupoval až ve chvíli, kdy bych zboží nesehnal nikde jinde. A přesto to většině lidí zjevně nevadí. Pokud jsem v menšině, zbývá mi přijmout věci tak, jak jsou a zařídit se podle svého.

Odpovědět


Re: Re: Re: Re: Re: Není toto kořen problému?

F M,2025-04-28 20:59:40

Pardon, blbě jsem se vyjádřil, měl jsem to rozdělit na tu část kterou teď rozvádíte a tu odbornější část, nějak jsem to nepřehledně slepil dohromady. Ta ne úplná závislost na vzdělání a těch výkonostnějších intelektuálních schopnostech se měla týkat toho prvního a zjednodušeně bublin.
Nohavica o těch internetech moc nevěděl, zřejmě podlehl v té době běžné iluzi jeho svobody a ještě v čase neměnné.
S tím smyslem toho příkladu se zastávkami jdou náklady, hlavně lidská práce, nějaká cedule tady konkrétně být musí. A pokud není společenská poptávka, tak o nic jiného než náklady příjmy (obchod) nejde (jen naznačuji další vrstvy).
S tím tik ťokem v USA jsem nedávno něco zaznamenal, ale to asi víte lépe než já. Něco jako, že to buď přenechají Američanům, nebo se to zakáže, ale nevím v jakém je to stavu.
Ten poslední odstavec to je přesně ono. Mladší jsou na to zvyklí, kamery všude, dohled na internetu samozřejmost, starší se cítí in a nevědí/nezajímá je to, je to pohodlné a zneužívá to lidské potřeby, proto i ty závislosti, ty dráhy v tom mozku jsou. Jen tam dám jednu věc, zase spíš princip, pokud by člověk měl rozvažovat opravdu každou věc kterou má udělat ta neudělá nic, proto se soustředí jen na něco, na "běžné" věci když je upozorněn něco se prudce mění a tak. Třeba nasednutí do auta, když zvážíte všechny klady a zápory tak si spoustu cest rozmyslíte, jet pro nějakou pitomost do obchodu zbytečné riziko, započitáte kolony-může lepší jet MHD, nebo na kole (vyznavači adrenalinu kteří se pohybují za ostré palby po bojišti, osobní joke), ale když to má člověk zažito tak to dělá automaticky až do nějaké "krize".
Osobně to mám podobně jako Vy, vyhýbám se podobným sítím jak to jde a děsí mě s čím dnes nemají lidé nejmenší problém (bonusově se sdílením prakticky veřejnosti čeho). Zvlášť když očekávám obrovský nárůst těžení informací, kvůli/díky těm AI, a směr nejen v EU dnes směrem ke svobodě a deregulacím zrovna nevede. Aktuálně, sdílejte fotku pálení čarodějnic s budoucím AI dohledem a smyčkou přes státní správu.

Odpovědět

Děkuji

Lukáš Fireš,2025-04-24 13:56:13

Přesně takovéto články tu vždy rád uvidím.
AI je mocný nástroj, poznejme ho, pochopme, použijme správně :)

Tak trochu mimochodem video od Sabine, jak AI skutečně (ne)přemýšlí ;)
https://www.youtube.com/watch?v=-wzOetb-D3w

Odpovědět

dokaz kruhom? :)

Pavel Ondrejovic,2025-04-24 13:04:17

citujem: "To nahlodává naši schopnost vést rozumnou debatu a dělá nás zranitelnějšími vůči dezinformacím a manipulaci (vzpomeňme na kauzy jako americké volby 2016 nebo Brexit ). "

Inak povedane, kedze sa ludia nechovaju, ako by som v mojej bubline rad, tak je na pricine vyssia moc, ze? :)

volby 2016 - chyba organizacie volieb, ktore nevzbudili dojem nepriestrelnosti. Ale zvedieme to na dezinformacie.
Brexit - uplne excelentne "kto nesuhlasi s PRAVDOU je dezinformovany". Akoby nemohli existovat ludia, ktori chcu aby im plnohodnotne vladla ich krajina.

Odpovědět


Re: dokaz kruhom? :)

Lukáš Fireš,2025-04-24 14:01:58

Kde vydíte důkaz kruhem? Cituji větu před tím: Algoritmy tak mohou snadno vytvářet a posilovat „ozvěnové komory“ a „filtrační bubliny“, kde vidíme jen to, co už si myslíme.

O "komnatách ozvěn" (echo chambers) mluvím už 20 let. Dávno víme, že "sociální sítě" přesně tímto polarizují společnost (a není to nic nového, stejným trpěly sekty a různé další komunity, dávno před facebookem).

Z toho pak vede implikace => pak už se nejsme schopni ani rozumně bavit, protože se neposloucháme.

Odpovědět


Re: dokaz kruhom? :)

Martin Novák2,2025-04-24 23:15:52

No u Brexitu by se to na dezinformaci svést dalo. Britové z nějakého záhadného důvodu dospěli k názoru že EU je zdrojem jejich problémů a neviděli že jejich vlastní politici na obou stranách jsou horší než celá EU. Takže si Brexitem víc uškodili než pomohli.
My na tom bohužel nejsme jinak...

Odpovědět


Diskuze je otevřená pouze 7dní od zvěřejnění příspěvku nebo na povolení redakce








Zásady ochrany osobních údajů webu osel.cz