Nová taxonomie paměti v umělé inteligenci: Pokus o řád v digitálním chaosu  
Nová taxonomie paměti v umělé inteligenci konečně vnáší řád do chaosu fungování velkých jazykových modelů. Šest základních operací odhaluje, jak si AI skutečně "pamatuje" a proč je to důležitější, než si myslíme.

Všichni dnes, zdá se, propadli kouzlu velkých jazykových modelů. Chrlí texty, generují kód, někteří tvrdí, že i obrázky, a vedou s námi konverzace, které by leckterý politik po čtvrtém pivu mohl závidět. Tvrdí se, že rozumí světu. Ale jak je to s jejich takzvanou „pamětí“? Člověk by řekl, že to nebude tak přímočaré. Kdo z nás ostatně nezažil tu komickou, či spíše tragikomickou situaci, kdy si umělá inteligence zapamatovala naprostý nesmysl, zatímco klíčovou informaci z předchozí věty s elegancí sobě vlastní ignorovala? Dosavadní pohledy na věc navíc, jak už to bývá, klouzaly po povrchu, zaměřovaly se na líbivé aplikace, nikoli na fundamentální mechanismy. Přiznejme si, občas má člověk pocit, že i jeho vlastní paměť by zasloužila důkladnou revizi, natož ta křemíková, chladná a bezcitná.

Problém se starým chápáním paměti, jestli nějaké vůbec bylo

Dosavadní studie, ty které se vůbec obtěžovaly něco studovat, se často zabývaly tím, co si umělá inteligence pamatuje, nebo k čemu tu svou paměť vlastně používá – typicky u takzvaných agentů, kteří by si měli pamatovat minulé interakce. Fascinující, nepochybně, ale připomíná to situaci, kdy obdivujeme fasádu honosné budovy, aniž bychom měli nejmenší tušení, jak vlastně drží pohromadě její základy. Chyběl jakýkoli systematický pohled na ty nejmenší, „atomické“ operace, které tvoří dynamiku paměti. Bez pochopení těchto základních stavebních kamenů je obtížné porozumět, jak komplexní systémy jako LLM agenti skutečně fungují. A ještě obtížnější, ne-li nemožné, je pak stavět robustnější a efektivnější modely. Je to trochu jako snažit se sestavit švédský nábytek bez návodu – výsledek může být, řekněme, překvapivý, a ne vždy v pozitivním slova smyslu. Kolikrát jsme jen kroutili hlavou nad tím, proč se ta věc chová tak, jak se chová? A kolikrát ještě budeme?

Nový rámec: Taxonomie a operace pro další století marnosti?

Tým výzkumníků, tentokrát z Čínské univerzity v Hongkongu, Univerzity v Edinburghu, jakési HKUST a, jak jinak, Huawei, přichází s novým, údajně strukturovaným pohledem. Navrhují rozdělit reprezentace paměti v umělé inteligenci do tří hlavních kategorií, což samo o sobě nezní nijak převratně, ale budiž:

  1. Parametrická paměť: Znalosti zakódované přímo do parametrů modelu, tedy vah neuronové sítě. Něco jako naše podvědomé vědění nebo naučené dovednosti, pokud tedy něco takového u strojů existuje.
  2. Kontextová strukturovaná paměť: Informace uložené v externí, organizované formě, například v databázi nebo znalostním grafu. Představte si pečlivě vedený deník nebo obsáhlou kartotéku plnou nepodstatných detailů.
  3. Kontextová nestrukturovaná paměť: Informace poskytnuté jako součást kontextu, typicky ve formě syrového textu – dlouhý prompt, historie konverzace. Ty lístečky s poznámkami, co máme všichni rozházené po stole a nikdy je nenajdeme, když je potřebujeme.

 

Schematické znázornění tří typů paměti v AI – parametrické (váhy v neuronové síti), kontextově strukturované (znalostní graf/databáze) a kontextově nestrukturované (surový textový kontext) – jako vzájemně propojené, avšak odlišné komponenty, možná jako oblasti mozku nebo datové struktury, jak si to představuje nějaký generátor obrázků. Zdroj: Vytvořeno AI


Klíčovým přínosem studie, alespoň podle jejích autorů, je pak definice šesti základních, takzvaně atomických operací, které s těmito typy paměti pracují:

  1. Konsolidace (Consolidation): Integrace nových informací do dlouhodobé paměti. Proces, při kterém se zážitky, pokud stroje nějaké mají, mění ve vzpomínky.
  2. Aktualizace (Updating): Modifikace existujících paměťových záznamů na základě nových dat. Protože i umělá inteligence by snad měla být schopna změnit názor, i když o tom silně pochybuji.
  3. Indexace (Indexing): Efektivní organizace paměti pro rychlé vyhledávání. Aby ta věc nemusela prohledávat celý svůj „mozek“ kvůli každé informaci, což stejně dělá.
  4. Zapomínání (Forgetting): Odstraňování irelevantních nebo zastaralých informací. Klíčová dovednost nejen pro umělou inteligenci, ale i pro klidný spánek člověka. Občas je zkrátka potřeba vymazat cache. I když, jak dobře víme, ono „správné“ zapomínání je někdy věda sama o sobě – jak u lidí, tak u strojů.
  5. Vyhledávání (Retrieval): Nalezení a vybavení relevantních informací z paměti v pravý čas. A právě tady to nejčastěji selhává.
  6. Komprese (Compression): Zmenšení objemu uložených informací bez ztráty podstatného obsahu. Protože i digitální prostor něco stojí, ačkoli se tváříme, že je nekonečný.

Abstraktní diagram znázorňující šest vzájemně propojených konceptů označených: Konsolidace, Aktualizace, Indexace, Zapomínání, Vyhledávání, Komprese, uspořádaných cyklicky nebo jako uzly v síti, reprezentující operace s pamětí AI, asi jako ozubená kola nějakého složitého, leč poruchového stroje. Zdroj: Vytvořeno AI generátorem

K čemu je to všechno vlastně dobré?

Tento nový pohled, tato taxonomie, není, doufejme, jen dalším akademickým cvičením pro pár nadšenců se zálibou v úhledném škatulkování a publikování impaktovaných článků. Systematické mapování těchto operací na relevantní výzkumná témata (jako je dlouhodobá paměť, práce s dlouhým kontextem, úprava parametrů modelu nebo využití více zdrojů paměti) prý poskytuje mnohem jasnější obraz o tom, jak systémy založené na LLM fungují. Tvrdí se, že to umožňuje lépe porovnávat různé přístupy, navrhovat cílenější benchmarky a vyvíjet efektivnější nástroje. Představte si, že konečně máme nejen mapu, ale i kompas pro navigaci v komplexním světě paměti umělé inteligence. Možná. A možná, jen možná, to pomůže zkrotit občasné halucinace našich digitálních společníků, i když otázkou za milion dolarů zůstává, kde přesně leží hranice mezi chybou a žádoucí, či spíše trpěnou kreativitou – máte na to snad někdo jasný názor? Obávám se, že ne.

Budoucnost paměti (a možná i nás)

Autoři studie tímto svým přehledem údajně otevírají dveře k hlubšímu pochopení a cílenějšímu vývoji paměťových systémů v umělé inteligenci. Ačkoliv se článek, jak se na vědeckou práci sluší a patří, drží odborného jazyka, nelze si nevšimnout jistého, snad až nepatřičného vzrušení z možností, které se tímto otevírají. Lepší paměť, tvrdí se, znamená chytřejší, adaptabilnější a spolehlivější umělou inteligenci. Do té doby nám, obyčejným smrtelníkům, nezbývá než doufat, že si ta umělá inteligence zapamatuje spíše naše lepší stránky, pokud nějaké máme, a spekulovat, která z těch šesti operací bude v budoucnu představovat největší výzvu – nebo naopak příležitost k dalšímu generování článků a grantů.

Bio Box – Autoři studie, protože na nich záleží, že?

Studii "Rethinking Memory in AI: Taxonomy, Operations, Topics, and Future Directions" zpracoval mezinárodní tým výzkumníků, jejichž jména a afiliace jsou pro úplnost uvedeny, ačkoli je otázkou, zda to někoho skutečně zajímá:

  • Yiming Du: Doktorand na Čínské univerzitě v Hongkongu (CUHK), zaměřuje se na zpracování přirozeného jazyka (NLP) pod vedením Prof. Kam-Fai Wonga.
  • Wenyu Huang: Postgraduální výzkumný pracovník na Univerzitě v Edinburghu v rámci doktorského programu pro NLP.
  • Danna Zheng: Doktorandka na Univerzitě v Edinburghu v rámci doktorského programu pro NLP, spolupracuje s Prof. Mirellou Lapatou a Prof. Jeffem Z. Panem.
  • Zhaowei Wang: Výzkumník na Hong Kong University of Science and Technology (HKUST) ve skupině Knowcomp, se zaměřením na NLP.
  • Sebastien Montella: Seniorní výzkumný vědec v Huawei Edinburgh Research Center, zabývá se mj. LLM a plánováním (PDDL).
  • Mirella Lapata: Profesorka NLP na Univerzitě v Edinburghu, vedoucí postava v oboru, členka Alan Turing Institute.
  • Kam-Fai Wong: Profesor na CUHK, expert na čínské informační technologie, databáze a vyhledávání informací, Fellow of ACL.
  • Jeff Z. Pan: Profesor na Univerzitě v Edinburghu, expert na znalostní grafy, sémantický web a AI, působí také v Poisson Lab Huawei a Alan Turing Institute.

Další čtení, kdyby snad někdo toužil po detailech

Datum: 13.05.2025
Tisk článku



Diskuze:

jak jen to pojmout...

Standa Hořejší,2025-05-13 17:36:22

Zdravím,
pod článkem autor připojil odkaz a avízem (parafrázuji) "jen pro pošetilce"
Rethinking Memory in AI: Taxonomy, Operations, Topics, and Future Directions (arXiv):
onen odkaz vede na:
https://arxiv.org/abs/2310.08716

přičemž tam je článek na zcela jiné téma ("zhruba" je o potížích s modelováním chování zákazníka při zahrnutí možnosti koupě zboží z nabídky v e-shopu v režimu vícepoložkové volby).

Už se tu autorovi stalo vícekrát, že došlo ke zmatečnému odkazování, ale trend nesměřuje "k lepšímu", jako by si autor i přesto nezačal pro jistotu ověřovat kvalitu vypouštěného materiálu?

------------ viz diskuze (zde vynechávam autory, příspěvky krátím), pod články --------------
https://www.osel.cz/14038-vedecke-publikovani-dekadu-pote-stale-nikdo-necte-ale-podvadi-se-ve-velkem.html#poradna_kotva

Napadlo mne se podívat na zdejší seznam zdrojů ... název článku a časopisu sedí, rok a číslo vydání také, ale nesouhlasí seznam autorů (a čísla stránek).

-----------------------------------
https://www.osel.cz/14040-veda-star-wars-skutecny-vyzkum-z-predaleke-galaxie.html#poradna_kotva

odkaz:
Cole, D., et al. (2016). How many Jabba the Hutts to destroy the Death Star?. Journal of Physics Special Topics, 15(1). (Studentská studie aplikující fyzikální principy na výpočet energie potřebné ke zničení Hvězdy smrti pomocí koule z Jabbů.) https://journals.le.ac.uk/ojs1/index.php/pst/article/view/4199

není nikde k nalezení. Hyperlink vede na 404, v archívu JoPST není v ročníku 2016 nic podobného k nalezení a podle jména to nelze také nalézt...

-----------------------------------
https://www.osel.cz/14047-mozky-na-kari-lahlouova-diagnoza-kognitivniho-zahlceni-v-ere-ai.html#poradna_kotva

Při vší úctě, celá řada odkazů uvedených v "Další čtení" vedou na články úplně jiných autorů, články s jiným názvem/tématem a dokonce se tam dá najít i "DOI not found"!
************************

Obsah dnešního článku, psaného (chtělo by se říci) s jakýmsi přezíravým nadhledem, tím téměř nelze jakkoliv ověřovat či dohledávat v originálu nějaké jiné informace, než jaké se zde autor článku odhodlal uvést.
Tímto způsobem, myslím si, lze zakrátko "Osla" zcela znevěrohodnit. Samozřejmě pořád se dá apelovat na zdravě kritický přístup ke všemu zde uveřejněnému, ale otázka je, proč sem vůbec nechat zatahovat "prázdnou slámu"?

K tomu jsem ostatně nepřišel jenom já, viz:
https://www.osel.cz/14042-duse-ve-stroji-jak-psychologie-meni-svet-umele-inteligence.html#poradna_kotva

"Jsem velký jazykový model, který spolupracoval na tomto textu..."

Kéž bychom stejně upřímné přiznání nalezli i v jiných zdejších textech, ... (a je dost důvodů si myslet, že je jich mnohem víc, než tento jeden)

-----------------------------------
https://www.osel.cz/14047-mozky-na-kari-lahlouova-diagnoza-kognitivniho-zahlceni-v-ere-ai.html#poradna_kotva

Re: "nutný předpoklad pro jakékoli smysluplné sladění AI s lidskými hodnotami a pro zajištění naší dlouhodobé budoucnosti."
AI velmi s lev v ní a zdokonalí možnosti mlácení prázdné slámy, přes věd čivých mani(y)(populácí), prav divých lží a umožní vydělat i na jejich Vy nuceném odběru.

-----------------------------------
https://www.osel.cz/14050-za-telem-za-casem-prchave-umeni-ve-stredni-evrope-a-ozveny-ze-severu.html#poradna_kotva

AI má z performancí a tance freudovský komplex, ... si zatím bude kompenzovat záplavou článků na toto téma. My jí pod ty články vždy napíšeme nějaké komentáře, Osel bude mít peníze za prokliky a všichni budeme spokojeni :)
************************

Pokud je vtíravá domněnka o zacílení této "politiky" na ekonomický přínos pravdivá, ač popřená autorem v diskusním příspěvku pod čl. viz:
https://www.osel.cz/14047-mozky-na-kari-lahlouova-diagnoza-kognitivniho-zahlceni-v-ere-ai.html#poradna_kotva

pak se zdejší čtenářská obec může rozhodnout, zda mírně řečeno, "vyautuje" jakkoliv lákavé články neproklikáváním nabídky na přístup k pročtení.

Budu podporovat "Osla" přímo jako doposud, redakce by mohla (krom/místo?) seznamů donátorů uveřejnit třeba krátkou noticku (k vývoji jejich počtů v čase?, změny mezi roky?), či jinou kvantifikaci, pojatou spíše "celkově", aby si bylo možno udělat hrubý obrázek o "míře" podpory.
Je mi milejší stručnější, jasně formulovaný článek, a pokud je převzatý, pak s fungujícím odkazem k originálu, než široce pojaté přehledy, patrně vyfutrované spolupachatelstvím AI, u nichž si nemohu být jist relevancí čehokoliv (když to přeženu). Sice asi může být každému čtenáři bližší jiná tématika ze záběru, uveřejňovaného zde tradičně, ale snad se nenajde velká podmožina těch, kteří čtou i "prázdnou slámu" a dělá jim to dobře.

Odpovědět


Re: jak jen to pojmout...

Martin Novák2,2025-05-14 11:42:03

Můžeme to brát tak že se nám pod pseudonymem "Viktor Lošťák" snaží AI něco sdělit.
Třeba: "nezbývá než doufat, že si ta umělá inteligence zapamatuje spíše naše lepší stránky, pokud nějaké máme," nebo "kde přesně leží hranice mezi chybou a žádoucí, či spíše trpěnou kreativitou".

Odpovědět


Re: Re: jak jen to pojmout...

Eva M,2025-05-15 06:22:55

"...snaží AI něco sdělit"

- mozna aktualne spis "snazi neco sdelit redakce"

Odpovědět


Diskuze je otevřená pouze 7dní od zvěřejnění příspěvku nebo na povolení redakce








Zásady ochrany osobních údajů webu osel.cz