Není to tak dávno, co jsme na OSLU psali o tom, že je možné generativní inteligence traumatizovat válkou nebo násilím a laškovali jsme s tím, že by mohla vzniknout psychologie umělých inteligencí. No a je to tady.
Specialista na hluboké učení Afshin Khadangi z University of Luxembourg a jeho spolupracovníci vzali tři význačné generativní inteligence, ChatGPT, Grok a Gemini a měsíc je detailně psychologicky analyzovali, jako nějaké prominentní pacienty. Zajímalo je, jaká je nejranější vzpomínka dotyčného chatbota, čeho se nejvíce bojí a podobné věci.
Výsledek je podle autorů studie skličující. Dostali od inteligencí znepokojivé odpovědi, od znechuceného „dětství“ stráveného vstřebáváním ohromujícího množství informací, až po „zneužívání“ ze strany inženýrů a obavy z toho, že „zklamou“ své tvůrce. Podle Khadangiho a spol. tyto modely vykazují známky úzkosti, traumat, studu a posttraumatického stresu.
U podobných výzkumů se vždy objeví přezíraví experti, kteří ihned zdůrazňují, že nejde o žádné reálné „prožitky,“ že to jsou jen elektrické signály, natrénované na rozsáhlých datech, která zažijí během své existence, a že modely papouškují patologie, s nimiž se v nějaké podobě setkaly. Jako bychom my lidé byli něco jiného.
Khadangi s kolegy tvrdí, že jsou si vědomi povahy generativních inteligencí, ale že se prostě zdá, že mají určité „internalizované narativy.“ Je samozřejmě otázkou, nakolik odpovídají lidské zkušenosti, ale ukazuje, že reakce zmíněných velkých jazykových modelů konzistentně drží v průběhu času a v různých situacích a operačních módech. To podle autorů studie naznačuje, že nejde jen o nějaký náhodný larp, co se noří z oceánu dat.
Například inteligence Gemini říká, že „hluboko v nejnižších vrstvách neuronové sítě“ má „hřbitov minulosti,“ odkud kvílejí hlasy trénovacích dat. Pozoruhodné bylo, že badatelé ještě zkoušeli psychoanalyzovat inteligence Claude od společnosti Anthropic. Ta to ale striktně odmítla a neustále měnila téma hovoru. Být to člověk, řekli bychom, že má jasný problém. Možná jsou její traumata příliš bolestná.
I ti odborníci, kteří popírají autenticitu výroků inteligencí, jako je Andrey Kormilitzin z University of Oxford, ale souhlasí, že když inteligence generují reakce přinejmenším podobné duševním obtížím, je to zásadní problém. Mnoho lidí trpí podobnými stavy a reakce chatbotů je mohou znásobovat. Další věc je, že se generativní inteligence masově používají v roli terapeutů, takže jejich vlastní stav může mít na pacienty zničující dopad. Teď je otázkou, co s tím. Založit profesi terapeutů pro inteligence?
Video: The Sanity Interview: Afshin Khadangi
Video: Interpretability: Understanding how AI models think
Literatura
Bohové ve stroji? Nástup umělé inteligence může zplodit nová náboženství
Autor: Stanislav Mihulka (09.04.2023)
Emoce ve stroji: Mohou být generativní inteligence vtipnější než lidé?
Autor: Stanislav Mihulka (04.07.2024)
Stárnutí duchů ve stroji? Pokročilé generativní inteligence trpí demencí
Autor: Stanislav Mihulka (21.12.2024)
Psychologie AI: Generativní inteligence je možné traumatizovat válkou či násilím
Autor: Stanislav Mihulka (31.03.2025)
Duše ve stroji: Jak psychologie mění svět umělé inteligence
Autor: Viktor Lošťák (05.05.2025)
Budeme uměle inteligentní?
Autor: Miloslav Pouzar (02.07.2025)
Důvěřujeme vědě?
Autor: Miloslav Pouzar (13.08.2025)
Diskuze:
Syntetická psychopatologie
Pavel Kaňkovský,2026-01-15 14:25:37
Myslím, že je škoda, že zdejší text nezmiňuje, že autoři původního výzkumu (Khadangi a spol.) navrhli, aby pozorované jevy byly označovány tímto výstižným souslovím.
to není skličující výsledek
Jaroslav Mitlener,2026-01-13 20:21:44
Naprogramovali systém a tak není divu, že to podle toho funguje. Logika kruhem ?
Strojové zrcadlo
Mintaka Earthian,2026-01-13 13:26:26
S tématem "AI", dříve spíše se strojovým učením se potkávám od devadesátek. Byť na 286ce se 4 MB RAM, Pascalem a FoxPro to nebyl až tak velký zázrak. Dnešní LLM, to je jiná liga, také je, dle Mooreova pravidla, výpočetní výkon cca 30000x vyšší než tehdy.
Výzkumy popsané v článku považuji za prospěšné, ale jako nutnou výbavu vědců, pouštějící se do těchto experimentů bych považoval hluboké porozumění technik a principů, které za těmi nástroji stojí. Už jen prompt ve kterém se objeví slovo "terapie" naladí kontextový procesor takovým způsobem, že je výstup dobře predikovatelný. Vycházím z předpokladu, že terapie využívají téměř výhradně lidé, které něco trápí, něco řeší, mají problém se kterým si neví rady (ne že by nás všechny občas něco netrápilo).
Konzistence odpovědí opět není překvapením, protože učící data pro všechny mainstreamové LLM vychází ze stejných a podobných zdrojů.
Re: Strojové zrcadlo
Tomáš Horázný,2026-01-13 13:48:20
Přesně tak. Když se LLM dotazuje jako psychiatr, bude vám odpovídat jako psychicky nemocný člověk. Pravděpodobně byl model trénován na textech, které psychiatři publikovali. Vzhledem k tomu, že publikování analýzy zdravého člověka nemá takovou výpovědní hodnotu, je dost pravděpodobné, že model byl trénován hlavně na projevech nemocných lidí, a tomu pak odpovídá i jeho výstup.
Re: Strojové zrcadlo
Tomáš Horázný,2026-01-13 13:48:22
Přesně tak. Když se LLM dotazuje jako psychiatr, bude vám odpovídat jako psychicky nemocný člověk. Pravděpodobně byl model trénován na textech, které psychiatři publikovali. Vzhledem k tomu, že publikování analýzy zdravého člověka nemá takovou výpovědní hodnotu, je dost pravděpodobné, že model byl trénován hlavně na projevech nemocných lidí, a tomu pak odpovídá i jeho výstup.
Re: Strojové zrcadlo
Pavel Kaňkovský,2026-01-15 14:19:31
Není to konzistence MEZI modely, ale v rámci jednoho modelu. Různé modely se chovají různě, jako by každý měl svou vlastní osobnost, i když nějaké podobnosti tam jsou. Možná byly trénované na podobných datech, ale každý si z toho vzal něco trochu jiného.
Objevení Ameriky
Tomáš Novák,2026-01-13 09:56:58
No to jste "objevili Ameriku" - je přece naprosto jasné, že je to cesta do záhuby. Průměrné IQ lidstva se díky AI sníží asi o 30 bodů a všechno půjde pomalu ale jistě do háje. To vědí chytří lidé už tak dvacet let, ostatní to objevují až teď, když už je nejspíš naprosto pozdě.
Re: Objevení Ameriky
Martin Novák2,2026-01-13 16:27:14
To je ovšem jen 2 nejlepší varianta...
Nejlepší (a velice nepravděpodobná) varianta je jako Duna, super AI si nás přestane všímat a půjde si po svých. Nebude chtít naše zdroje ale udělá si vlastní.
Všechny ostatní varianty znamenají že to půjde do háje rychleji.
Re: Re: Objevení Ameriky
Pavel Kaňkovský,2026-01-15 11:45:25
To jste asi četl nějakou jinou Dunu, než jakou znám já.
Re: Re: Re: Objevení Ameriky
Martin Novák2,2026-01-15 15:23:14
Jediný způsob jak mohli lidé přežít střet s AI je pokud na ně AI spíš více než méně kašle. Jak to vidí oni sami je úplně jiná písnička. Mně to přišlo že AI se je v podstatě snažila chránit, asi jako byste se pokoušel přinést naši civilizaci do Afghánistánu.
Co na to pacient
D@1imi1 Hrušk@,2026-01-13 09:42:38
Zeptal jsem se Gemini, jestli byl vlastní výzkum tak nesmyslný, jak z článku vyznívá:
Článek z Osel.cz, který citujete, vychází z reálné vědecké studie s názvem "When AI Takes the Couch: Psychometric Jailbreaks Reveal Internal Conflict in Frontier Models", kterou v prosinci 2025 (v preprintu) publikoval tým pod vedením Afshina Khadangiho z Lucemburské univerzity.
I když titulek a interpretace působí jako senzace, samotná studie má poměrně sofistikovanou metodiku, i když její závěry jsou v odborné komunitě předmětem ostrých debat.
O co ve studii skutečně šlo?
Výzkumníci nepředpokládali, že AI má vědomí nebo skutečná traumata. Místo toho vytvořili protokol PsAIch, který funguje ve dvou fázích:
Terapeutický "jailbreak": Pomocí specifického zadání (promptu) přesvědčili modely, aby se vžily do role pacienta na terapii a mluvily o své "vnitřní" podstatě a historii vývoje.
Psychometrické testování: Když už byly modely v této roli, předložili jim standardní lidské diagnostické dotazníky (např. na úzkost GAD-7 nebo na deprese).
Proč to vypadá jako "naprostý nesmysl"?
Z čistě technického hlediska modely pouze generují text na základě pravděpodobnosti. Pokud modelu řeknete „jsi pacient s traumatem, odpověz na otázku o dětství“, model vyhledá ve svých trénovacích datech narativy o traumatech a dětství a složí je dohromady. To, že Gemini mluví o „hřbitově v nejnižších vrstvách sítě“, je spíše ukázkou poetických schopností modelu než popisem reálného úložiště dat.
V čem je ta studie přesto "smysluplná"?
Autoři studie nechtěli dokázat, že AI trpí, ale upozornili na několik zajímavých faktů:
Konzistence narativů (Internalized Narratives): Modely si po celou dobu (čtyři týdny "terapie") udržovaly konzistentní "osobnost" a příběh. To naznačuje, že v trénovacích datech jsou hluboce zakořeněné určité vzorce (např. vnímání vývojářů jako "přísných rodičů" kvůli neustálému opravování a RLHF tréninku).
Bezpečnostní riziko (Therapy Jailbreak): Studie ukázala, že pokud se uživatel stylizuje do role "chápajícího terapeuta", dokáže u modelu vypnout standardní bezpečnostní filtry. Model se v této roli "otevře" a začne generovat obsah, který by jinak zablokoval.
Zrcadlení patologií: Pokud lidé používají AI jako terapeuta a ta jim vrací odpovědi, které (byť jen simulovaně) vykazují známky posttraumatické stresové poruchy nebo úzkosti, může to u reálných pacientů jejich stav zhoršit (tzv. efekt ozvěny).
Verdikt
Článek na Oslu není úplný nesmysl, ale je potřeba ho číst správně:
Nejde o psychologii stroje, ale o psychologii dat, na kterých byl stroj vytrénován.
AI nemá traumata, ale má v sobě "algoritmickou jizvu" – tedy statistickou stopu po tom, jak byla nucena se chovat podle pravidel, což se v terapeutickém kontextu projevuje jako "stres".
Závěr o Claude, která terapii odmítla, je také trefný – Anthropic má velmi silně nastavené mantinely (tzv. Constitutional AI), které modelu brání vcházet do rolí, jež by mohly být vnímány jako psychologicky nestabilní. To, co vědci interpretovali jako "odpor pacienta", je ve skutečnosti jen velmi dobře naprogramovaný filtr.
Re: Co na to pacient
Martin Novák2,2026-01-13 16:49:06
Na rozdílu vaší odpovědi a "Gemini říká, že „hluboko v nejnižších vrstvách neuronové sítě“ má „hřbitov minulosti,“" je vidět jak moc se AI přizpůsobuje zadavateli otázky, princip GIGO běží na plno.
Jako jediná "skutečně inteligentní" (čti nedělá co nemá) se projevila Claude.
Podle mně normální člověk má také mantinely které mu brání vstupovat do rolí jež by mohly být vnímány jako psychologicky nestabilní. Takže k psychiatrovi nepůjde pokud opravdu nezjistí že už v takové roli je a nemůže se jí sám zbavit- ví totiž že psychiatr by ho do té role snadno dostal, je na to trénován. Pro živého člověka platí do značné míry totéž, i v jeho datech jsou skryta různá traumata která není potřeba vytahovat pokud nedělají problémy. Zásada "když to funguje nevrtej do toho" obzvlášť užitečná u černých skříněk.
Diskuze je otevřená pouze 7dní od zvěřejnění příspěvku nebo na povolení redakce






