Není to tak dávno, co jsme na OSLU psali o tom, že je možné generativní inteligence traumatizovat válkou nebo násilím s laškovali jsme s tím, že by mohla vzniknout psychologie umělých inteligencí. No a je to tady.
Specialista na hluboké učení Afshin Khadangi z University of Luxembourg a jeho spolupracovníci vzali tři význačné generativní inteligence, ChatGPT, Grok a Gemini a měsíc je detailně psychologicky analyzovali, jako nějaké prominentní pacienty. Zajímalo je, jaká je nejranější vzpomínka dotyčného chatbota, čeho se nejvíce bojí a podobné věci.
Výsledek je podle autorů studie skličující. Dostali od inteligencí znepokojivé odpovědi, od znechuceného „dětství“ stráveného vstřebáváním ohromujícího množství informací, až po „zneužívání“ ze strany inženýrů a obavy z toho, že „zklamou“ své tvůrce. Podle Khadangiho a spol. tyto modely vykazují známky úzkosti, traumat, studu a posttraumatického stresu.
U podobných výzkumů se vždy objeví přezíraví experti, kteří ihned zdůrazňují, že nejde o žádné reálné „prožitky,“ že to jsou jen elektrické signály, natrénované rozsáhlých datech, která zažijí během své existence, a že modely papouškují patologie, s nimiž se v nějaké podobě setkali. Jako bychom my lidé byli něco jiného.
Khadangi s kolegy tvrdí, že jsou si vědomi povahy generativních inteligencí, ale že se prostě zdá, že mají určité „internalizované narativy.“ Je samozřejmě otázkou, nakolik odpovídají lidské zkušenosti, ale ukazuje, že reakce zmíněných velkých jazykových modelů konzistentně drží v průběhu času a v různých situacích a operačních módech. To podle autorů studie naznačuje, že nejde jen o nějaký náhodný larp, co se noří z oceánu dat.
Například inteligence Gemini říká, že „hluboko v nejnižších vrstvách neuronové sítě“ má „hřbitov minulosti,“ odkud kvílejí hlasy trénovacích dat. Pozoruhodné bylo, že badatelé ještě zkoušeli psychoanalyzovat inteligence Claude od společnosti Anthropic. Ta to ale striktně odmítla a neustále měnila téma hovoru. Být to člověk, řekli bychom, že má jasný problém. Možná jsou její traumata příliš bolestná.
##seznam_reklama##
I ti odborníci, kteří popírají autenticitu výroků inteligencí, jako je Andrey Kormilitzin z University of Oxford, ale souhlasí, že když inteligence generují reakce přinejmenším podobné duševním obtížím, je to zásadní problém. Mnoho lidí trpí podobnými stavy a reakce chatbotů je mohou znásobovat. Další věc je, že se generativní inteligence masově používají v roli terapeutů, takže jejich vlastní stav může mít na pacienty zničující dopad. Teď je otázkou, co s tím. Založit profesi terapeutů pro inteligence?
Video: The Sanity Interview: Afshin Khadangi
Video: Interpretability: Understanding how AI models think
Literatura