Kognitivní kapitulace: Většina lidí bere, co jim ChatGPT řekne  
Chatboty dnes používá skoro každý a hodně lidí jim věří. Problém je v tom, že chatboti stále dělají až překvapivě velké množství závažných chyb. Vypadá to tak, že svěřujeme myšlení a důvěru někomu, kdo je dost problematický. Jako bychom kognitivně kapitulovali. Nejspíš nás čekají velmi zajímavé časy.
Chatbot. Kredit: Pixabay, CC0.
Chatbot. Kredit: Pixabay, CC0.

Trvalo to jen pár let a chatboti s generativní inteligencí se stali běžnou součástí našich životů. Je to okouzlující a současně hrozivé, protože chatboti rozhodně nejsou hladce fungující nástroje. Bez ohledu na to, že stále jsou blackboxem a vlastně nevíme, co přesně dělají, ChatGPT, Gemini, Claude a spolu s nimi všichni chatboti stále dělají chyby.

 

Steve Shaw, The Wharton School, The University of Pennsylvania. Kredit: S. Shaw.
Steve Shaw, The Wharton School, The University of Pennsylvania. Kredit: S. Shaw.

Podle nedávné studie v režii BBC i ti nejvíce pokročilí chatboti dělají přinejmenším jednu zásadní chybu ve 45 procentech všech odpovědí. Pro mnohé uživatele to ale není relevantní. Nedávno to zjistili Steven Shaw a Gideon Nave z University of Pennsylvania v sérii experimentů. Ukázalo se, že uživatelé mají sklon brát odpovědi z ChatGPT jako danou věc – i když jsou špatně.

 

Účastníci experimentů měli odpovídat na znalostní dotazy. Měli možnost použít ChatGPT, což udělala více než polovina z nich. V jednom z experimentů se 359 dobrovolníky se lidí řídili správnou radou umělé inteligence v 92,7 procentech případů, a také špatnou radou ve stále dost tučných 79,8 procentech případů.

 

Logo. Kredit: The Wharton School, The University of Pennsylvania.
Logo. Kredit: The Wharton School, The University of Pennsylvania.

Jak se zdá, lidé jsou až komicky ochotni věřit tomu, co jim chatbot říká. Shaw a Nave to poněkud mrazivě nazývají kognitivní kapitulace (cognitive surrender). Podle nich jsou lidé vlastně ochotní outsourcovat samotné myšlení. Řídí se tím, co jim chatbot řekne, i když to není správně, pokud to zní obstojně věrohodně a nevědí, že jde o chybu.

 

Může to být tím, že myšlení bolí a je energeticky nákladné, tak proč ho nesvěřit stroji? Když už za nás stroje počítají a posílají dopisy, po naší výpočetní a poštovní kapitulaci… Současně ale platí, že chatboti, i když to zní absurdně, jsou velmi přesvědčiví a lidem se s nimi podle všeho dobře povídá. Nejspíš odpadá stres z mezilidské interakce, která je mnohem náročnější než samotné myšlení, přinejmenším pro introverty.

 

Přílišná důvěra v chatboty ale může být i velice riziková, pokud by se operátoři chatbotů pokoušeli manipulovat jejich odpovědi a chování, s cílem nějakým způsobem ovlivnit uživatele. Což v dnešní době v žádném případě nelze vyloučit.

 

Video: Is AI Replacing Human Thinking? The Rise of "Cognitive Surrender"

 

Literatura

Futurism 28. 3. 2026.

The Wharton School Research Paper

Datum: 31.03.2026
Tisk článku

Související články:

V morálních a politických sporech nefungují fakta, ale osobní zkušenost     Autor: Stanislav Mihulka (27.01.2021)
Jak účinně bojovat s dezinformacemi? Zapojte emoce!     Autor: Stanislav Mihulka (07.10.2024)
Lepší než kampaň: Umělé inteligence levou zadní přesvědčí voliče oběma směry     Autor: Stanislav Mihulka (08.12.2025)
Nová generace dezinformací: Roje inteligencí vytvoří falešnou většinu     Autor: Stanislav Mihulka (27.01.2026)



Diskuze:

Žádný příspěvek nebyl zadán



Pro přispívání do diskuze musíte být přihlášeni



Zásady ochrany osobních údajů webu osel.cz