Trvalo to jen pár let a chatboti s generativní inteligencí se stali běžnou součástí našich životů. Je to okouzlující a současně hrozivé, protože chatboti rozhodně nejsou hladce fungující nástroje. Bez ohledu na to, že stále jsou blackboxem a vlastně nevíme, co přesně dělají, ChatGPT, Gemini, Claude a spolu s nimi všichni chatboti stále dělají chyby.
Podle nedávné studie v režii BBC i ti nejvíce pokročilí chatboti dělají přinejmenším jednu zásadní chybu ve 45 procentech všech odpovědí. Pro mnohé uživatele to ale není relevantní. Nedávno to zjistili Steven Shaw a Gideon Nave z University of Pennsylvania v sérii experimentů. Ukázalo se, že uživatelé mají sklon brát odpovědi z ChatGPT jako danou věc – i když jsou špatně.
Účastníci experimentů měli odpovídat na znalostní dotazy. Měli možnost použít ChatGPT, což udělala více než polovina z nich. V jednom z experimentů se 359 dobrovolníky se lidí řídili správnou radou umělé inteligence v 92,7 procentech případů, a také špatnou radou ve stále dost tučných 79,8 procentech případů.
Jak se zdá, lidé jsou až komicky ochotni věřit tomu, co jim chatbot říká. Shaw a Nave to poněkud mrazivě nazývají kognitivní kapitulace (cognitive surrender). Podle nich jsou lidé vlastně ochotní outsourcovat samotné myšlení. Řídí se tím, co jim chatbot řekne, i když to není správně, pokud to zní obstojně věrohodně a nevědí, že jde o chybu.
Může to být tím, že myšlení bolí a je energeticky nákladné, tak proč ho nesvěřit stroji? Když už za nás stroje počítají a posílají dopisy, po naší výpočetní a poštovní kapitulaci… Současně ale platí, že chatboti, i když to zní absurdně, jsou velmi přesvědčiví a lidem se s nimi podle všeho dobře povídá. Nejspíš odpadá stres z mezilidské interakce, která je mnohem náročnější než samotné myšlení, přinejmenším pro introverty.
Přílišná důvěra v chatboty ale může být i velice riziková, pokud by se operátoři chatbotů pokoušeli manipulovat jejich odpovědi a chování, s cílem nějakým způsobem ovlivnit uživatele. Což v dnešní době v žádném případě nelze vyloučit.
Video: Is AI Replacing Human Thinking? The Rise of "Cognitive Surrender"
Literatura
V morálních a politických sporech nefungují fakta, ale osobní zkušenost
Autor: Stanislav Mihulka (27.01.2021)
Jak účinně bojovat s dezinformacemi? Zapojte emoce!
Autor: Stanislav Mihulka (07.10.2024)
Lepší než kampaň: Umělé inteligence levou zadní přesvědčí voliče oběma směry
Autor: Stanislav Mihulka (08.12.2025)
Nová generace dezinformací: Roje inteligencí vytvoří falešnou většinu
Autor: Stanislav Mihulka (27.01.2026)
Diskuze:






