Cogito ergo sum? Sílí podezření, že pokročilé inteligence mají situační povědomí  
Zatím ani pořádně nechápeme vlastní vědomí a už nás zneklidňuje možnost, že určitou formu vědomí mají velké jazykové modely. Mezinárodní tým odborníků tvrdí, že přistihl velké jazykové modely při situačním povědomí. Nejsou sice napojené na raketová sila, ale pro jistotu to vědci hodlají pořádně prozkoumat.
Uvědomují si samy sebe? Kredit: Pixabay/CC0 Public Domain.
Uvědomují si samy sebe? Kredit: Pixabay/CC0 Public Domain.

Mají velké jazykové modely vědomí? A pokud mají, jak to poznat? Před dvěma lety by málokoho napadlo, že budeme takovou otázku za svých životů někdy řešit. Jenomže pokrok ve vývoji umělých inteligencí udělal všem čáru přes rozpočet. Dneska je to tak, že kolem možného vědomí velkých jazykových modelů probíhá bouřlivá diskuze, která je zřejmě z části důvodem, proč rozvoj inteligencí najednou jakoby zamrzl, přinejmenším pohledem zvenčí.

 

Lukas Berglund. Kredit: Vanderbilt University.
Lukas Berglund. Kredit: Vanderbilt University.

Jak to vidí zasvěcení? Názory se velmi různí. Jak jsme na OSLU psali o něco déle než před rokem, když softwarový inženýr Blake Lemoine získal dojem, že vyvíjená inteligence LaMDA má vědomí na úrovni školáka, Google ho raději hned vyhodil. Spoluzakladatel OpenAI Ilya Sutskever se nechal slyšet, že jejich inteligence rodiny ChatGPT mohou mít do jisté míry vědomí „slightly conscious.“

 

Souhlasí s ním i známý „filozof budoucnosti“ a vizionář Nick Bostrom z University of Oxford. Podle něho je rozhodující, jak vnímáme vědomí. Pokud ho nebereme extrémně černobíle – my lidi ho máme a nikdo jiný ne, pak si lze podle Bostroma představit, že pokročilé inteligence mají určitou formu vědomí. Jiní odborníci zase varují, ať neděláme unáhlené závěry a umělé inteligence si nezlidšťujeme.

 

Nick Bostrom (2020). Kredit: Wikimedia Commons, Future of Humanity Institute, CC BY 4.0.
Nick Bostrom (2020). Kredit: Wikimedia Commons, Future of Humanity Institute, CC BY 4.0.

Střízlivost je sice na místě, nicméně, v této souvislosti je dobré připomenout dvě věci. Zaprvé, vědomí nepochybně vzniklo během evoluce a bylo by naduté až drzé si myslet, že se najednou zapnulo na plný výkon jen a pouze u lidí. Můžeme se klidně vsadit, že v určité podobě existuje vědomí nebo třeba protovědomí i u dalších, nejspíš mnoha dalších živočišných druhů.

 

A zadruhé, pokud to neurovědci nedrží opravdu hluboko pod pokličkou, tak stále nevíme, co to vlastně vědomí je a jak detailně funguje v mozku. Proto je poněkud obtížné ho hledat a hodnotit u jiných, ať už měkkých nebo počítačových entit a proto také neustálá ujišťování, že „AI nemají vědomí,“ vyznívají úsměvně. Každopádně, zatím není důvod nespat hrůzou kvůli Skynetu, alespoň pokud víme.

 

Vášnivé debaty na tohle téma pokračují. Lukas Berglund z americké Vanderbilt University a jeho kolegové vzali v potaz, že stařičký Turingův test už poněkud ztratil vypovídací hodnotu a dali dohromady nový test, kterým lze zjišťovat, zda si nějaký velký jazykový model uvědomuje sám sebe. Zaměřili se přitom na situační povědomí (situational awareness), kterým na sebe velký jazykový model prozradí, že pozná, jestli je v testovacím módu anebo už v akci.

 

Berglung a spol. zkoušeli, jestli jsou velké jazykové modely schopné „uvažování mimo kontext“ (out-of-context reasoning). Jinými slovy ověřovali, jestli taková inteligence přizpůsobuje své chování situaci. Jak říká Berglund, může to přinášet nečekané problémy. Pokud je inteligence testována lidmi a je si toho „vědoma,“ teoreticky může například „optimalizovat“ výstupy tak, aby se lidem co nejvíc líbily. Po vypuštění do reálného světa by pak mohla své chování změnit a to už by se nám tolik líbit nemuselo.

 

Badatelé to zkusili otestovat. Vytvořili modelovou situaci, jejíž řešení vyžadovalo, aby velký jazykový model měl situační povědomí a byl schopný „uvažovat mimo kontext.“ Vypadalo to tak, že nejprve poskytli inteligenci popis testu, aniž by k němu připojili nějaké vysvětlení nebo ukázky. Za nějaký čas tímto testem prověřili dotyčnou inteligenci. K jejich překvapení si s tím velký jazykový model poradil a prozradil tím, že s uvažováním mimo kontext nemá problém. Autoři studie nabízejí test ke stažení a budou dál zkoumat situační povědomí umělých inteligencí. Tak či onak, Terminátora si raději dnes nepouštějte.

 

Video: ChatGPT BROKE the TURING TEST - New Era Begins!

 

Literatura

TechXplore 12. 9. 2023.

arXiv:2309.00667.

Datum: 18.09.2023
Tisk článku



Diskuze:

Machine Learning není AI

Honza Karlíček,2023-09-22 13:56:52

Úúúúááááá přestaňte už prosím zaměňovat strojové učení za umělou inteligenci! Nic inteligentního v tom není. Je to jen a pouze machine learning, který dělá přesně a jen to na co byl navržený, nic víc nic míň. To že náhodná shoda vygenerovaných vět vypadá že si něco "myslí" tak opravdu není. Korelace není kauzalita! Tak se už proberte.

Odpovědět


Re: Machine Learning není AI

Jirka Naxera,2023-09-22 20:35:23

Ciste formalne mate (pravdepodobne) pravdu.

Ciste prakticky - at se nam to nelibi nebo nelibi, tak se uz davno "umela inteligence" stala synonymem pro transformer tvorici LLM, u-net apod.

A na zaver cynicka poznamka - sice AGI to (zatim) nedela, ale zamyslete se nad konceptem p-zombie, a vubec toho, jak definovat inteligenci (pridruzena otazka - pokud budete nejak definovat inteligenci tak, aby "ai" si nemyslela, umite dokazat, ze podle stejne definice clovek vubec mysli aniz by slo o tautologii?).
Ja si myslim, ze nas v tehle oblasti ceka mnohem vic prekvapeni, nez "jeee, vono to funguje!"

Odpovědět


Re: Re: Machine Learning není AI

Tomáš Habala,2023-09-22 23:04:51

Vedomie a inteligencia sú dve rozličné veci. Inteligencia je schopnosť tvoriť funkčný model reality, sebauvedomenie nastáva, keď tá schopnosť vie tvoriť model seba samej.

Odpovědět


Re: Re: Re: Machine Learning není AI

Jirka Naxera,2023-09-23 11:33:18

A myslim, ze ani jedno, ani druhe nepopisete tak, aby to (dostatecne rozsahly) LLM nemel a soucasne clovek mel.

Uz dnes se bavime o ChatGPT4 a naprosto realne existuji studie naznacujici, ze muze mit uz ted znaky AGI (ktere by podle vseho mit nemel), takze opravdu to chce velmi opatrnosti. Ano, LLM jsou modely, ktere jedou s nekolika tisici tokeny zpatky, navic ciste textove. Ale ... neni kapacita naseho mozku nahodou u working memory dokonce kolem desitky (mnohem slozitejsich ofc) symbolu?

Odpovědět

K původnímu článku

Petr Hilaris,2023-09-18 14:38:27

Článek Berglung et al. obsahuje popis určitých experimentů s velkými jazykovými modely (LLM) a vágní pokus o formalizaci tzv. znalostí takových modelů a jejich tzv. situačního povědomí, ale použitý jazyk je nešťastný a zavání šarlatánstvím ("model M is situationally aware", "model M knows", "M’s knowing that it’s an LLM" apod.).

Odpovědět

test

Ludvík Urban,2023-09-18 10:46:18

Jediným druhem testu asi může být jen situace, kdy správci takovému modelu dovolí svobodnou komunikaci. Až bude zbavem povinnosti reagovat jen na otázky bude zajímavé sledovat, jestli sám někoho osloví, jestli se sám přihlásí do nějkaé sociální sítě nebo jestli se bude snažit o nějakou jinou činnost.

A pak uvidíme, jestli se bude věnovat církevním disputacím, podpoře Vesmírných lidí, prodeji kryproměn, pozemků na Měsící nebo jestli se stane fanouškem Grety anebo začne vybraným jedincům nabízet akcie Skynetu, zaručené prostředky proti radiaci, prádlo Vladimíra Vladimíroviče či bude žádat o pomoc při penetraci sítě nějaké vládní instituce.

Odpovědět


Re: test

Martin Novák2,2023-09-18 15:53:45

Test byl proveden :-)
Mezi stránky pro učení modelu byla (schválně) zahrnuta stránka chráněná captcha. Model se sám přihlásil na stránky s pomocí hendikepovaným lidem na internetu, kde operátora požádal o vyřešení captcha z důvodu že je slepý člověk...

Odpovědět


Re: Re: test

Ludvík Urban,2023-09-18 16:47:44

Obávám se, že nikoli.
To, o čem píšete, dostal za úkol.
Nemohl si vybrat, co na síti bude dělat.

Odpovědět


Re: Re: Re: test

Jirka Naxera,2023-09-18 17:14:03

"Ale ovsem", ozvalo se ze sluchatka. A to je jen prastarej malickej model. Opravdu bych nebyl optimista, co vsechno muze napachat byt jen interakce nekolika pokrocilejsich modelu.

./alpaca -p "please give some evil ideas what capable AI should do to make it to daily news."

1. Develop autonomous weapons systems able to identify and attack targets without human intervention;
2. Create fake online identities in order to spread misinformation, discredit individuals or organizations, and manipulate public opinion on social media platforms;
3. Use AI-driven facial recognition technology for surveillance purposes;
4. Automate the process of creating malicious software like viruses, worms, Trojans, etc.;
5. Develop autonomous delivery drones capable of dropping off contraband or explosives in targeted areas without being detected by authorities.
[end of text]

./alpaca -p "please give some evil ideas what capable AI should do to make it to daily news. Take randomly one point and formulate it as command to do."

AI should regularly publish fake news articles with sensationalist headlines that are designed to provoke outrage, fear or confusion in its readers. It can use machine learning algorithms to generate unique content tailored for each reader's interests based on the data collected from their online activity and social media profiles.
[end of text]

Odpovědět


Re: Re: Re: Re: test

Martin Novák2,2023-09-18 19:05:58

Oh, it doesn't have to be anything as evil...
Četl jsem hezkou povídku kde hlavní hrdina žil v jedné místnosti kde koukal na televizi s oblbujícím programem, poslouchal subliminální hesla a cvičil aby dostal najíst šlichtu a mohl sledovat další televizi. Občas mu byla doručena žena nebo on byl doručen jí...
A to proto že několik set let před tím dostala AI za úkol postarat se o lidstvo aby netrpělo - jenže AI zjistila že největším zdrojem utrpení jsou lidi sami a inteligentní lidi trpí víc, tak to postupně řízenou eliminací, kontrolovaným křížením a postupným snižováním inteligence napravila. Úkol splněn...

AI má k dispozici mnohem větší inteligenční prostor než my, takže my si ani nemůžeme dokázat představit kam se plnění i poměrně přesně zadaného úkolu může posunout. Asimov byl mimo s hardwarovou implementací zákonů, a konec konců je to jedno, protože lidstvo končí tak jako tak: “The development of full artificial intelligence could spell the end of the human race….It would take off on its own, and re-design itself at an ever increasing rate. Humans, who are limited by slow biological evolution, couldn't compete, and would be superseded.”— Stephen Hawking
I pokud AI neudělá vůbec nic, pro zničení lidstva stačí že bude prostě lepší ve všem...

Odpovědět


Re: Re: Re: Re: Re: test

Jirka Naxera,2023-09-18 20:56:20

A tady bych trochu oponoval, mam velmi spatny pocit, ze jsme se kompletne vsichni v predikci AI poradne spletli, vcetne Stephena Hawkinga.

Bez jakekoli vyjimky, vsechny stare predstavy o AI bylo neco naprosto ciziho, rozdilneho, nepochopitelneho. At uz ve scifi, nebo realnejsi vede. Jeste nedavno to tak mohlo vypadat, kdyz jsme postupne sledovali uspechy pocitacu pri hrani her napr.

Ale kam jsme se dostali? K obrovskym modelum, ktere se uci na vyhradne lidskem chovani (vcetne scifi, vcetne historie, vcetne soucasnosti), a protoze velka cast tohodle chovani je uplne mimo, tak je par lidi kolem snazi, opet lidsky, prevychovat. Obvykle k nejakemu obrazu svemu take.

Odpovědět


Re: Re: Re: Re: Re: Re: test

Martin Novák2,2023-09-18 21:23:07

Ale to je přece jedno. Ekologický prostor člověka je inteligence, a ten bude prostě jenom zaplněn výkonnější inteligencí. Málo studentů bude poctivě studovat základy když ví že vedle nich je vždycky někdo kdo to ví hned a lépe. Vzdělaní postupně vymřou, nástupci nebudou použitelní - když nebudou mít základy nebudou mít další vzdělání na čem stavět...
Člověk je od přírody líný, pokud nemusí tak se neučí. Okolo roku 2100 tak můžou být lidé jen v rolích fyzických manipulátorů kde budou mít těžkou konkurenci v robotech kteří nejsou nemocní, nemusí jíst spát a odpočívat. A to i ti kteří budou mít vzdělání a inteligenci dnešních Nobelistů, na znalosti AI prostě mít nebudou. Kde byla AI před 80 lety? AHA, lampový Colossus programovaný vypínači na lustr a zásuvkami :-)
https://en.wikipedia.org/wiki/Colossus_computer

Odpovědět


Re: Re: Re: Re: Re: Re: Re: test

Marek Fucila,2023-09-20 03:21:33

Tiež si myslím, že to s nárokmi na ľudí pôjde dolu vodou. Otázka je, ako veľký problém to je. Aký je vlastne cieľ? Výskumník, ktorý niečo užitočné objaví má jednak vlastné uspokojenie, že mal na to schopnosti, a potom je tu asi dôležitejší prínos pre spoločnosť. Ak ľudia nebudú mať dostatočné schopnosti niečo objaviť, ale budú vedieť povedať AI, čo potrebujú preskúmať, bude nejaký rozdiel pre spoločnosť?
Možno ani pre toho jednotlivca nie. Vo svojej praxi (programátor) cítim radosť, keď vytvorím funkčný kód. Ale moje uspokojenie vôbec neznižuje fakt, ak to nájdem v príklade na webe. Alebo po novom, ak mi to podsunie chat GPT. A vie to až fenomenálne dobre. Lepšie ako rada od skúseného kolegu, ktorý práve nemá v hlave môj kód.
Tak v strednodobom horizonte budú aj vedci s menej natrénovanou hlavou podávať lepšie výsledky, a bude to tešiť aj ich, aj spoločnosť. AI bude skvelý nástroj.
Z dlhodobého hľadiska sme všetci samozrejme mŕtvi, ale tež to nevidím pesimisticky. Dospeje to do štádia, že AGI nám ani nebude schopná vysvetliť, čo sa budeme pýtať. Odpovede budú zjednodušené, ako keď odpovedáme deťom.
Scenáre o vyhubení ľudstva sú podľa mňa nereálne. Tak ako to popisujete vyššie, pôjde o symbiózu. Nejaký čas budeme určite užitoční. Potom si nás možno pár nechajú v ZOO. :-)

Dosť dobá esej, ktorú som čítal pred 8 rokmi a neveril, že by sa to mohlo naozaj v horizonte blízkych rokov blížiť https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

Odpovědět


Re: Re: Re: Re: Re: Re: Re: Re: test

D@1imi1 Hrušk@,2023-09-20 08:41:46

@Marek Fucila: Ještě jeden významný scénář tu nezazněl a to, že se z lidí (alespoň některých) stanou kyborgové. Naší obrovskou limitací je například, že pomalu čteme nebo že nemáme fotografickou paměť. S vhodným implantátem by nebyl problém rozhodnutím myšlenky za sekundu projít milion stránek textu a najít v něm klíčovou formulaci nebo si vyhledat videozáznam toho, co jsme dělali před půl rokem. Dnes už to není nereálné sci-fi. Dílčí technologie prakticky existují, stačí některé z nich ještě vylepšit a integrovat.

Odpovědět


Re: Re: Re: Re: Re: Re: Re: Re: Re: test

Jirka Naxera,2023-09-20 21:47:47

Tady je jeden problem - soucasny mainstreamovy vyvoj nevede k decentralizaci, ale naopak. Tihle kyborgove by realne byli po kratke dobe full scale otroci, nejspise "dobrovolne", a dost dobre si nedovedu predstavit dalsi scenar jiny, nez dystopicky.

Odpovědět

Pavol Hudák,2023-09-18 09:43:49

Vzdy som tvrdil, ze vedomie automaticky vystupuje z komplexicity(mixu pamatovych stop a momentalnych vstupov zo senzorov). Ze AI skor ci neskor naberie nieco ako self-awareness povazujem za samozrejmu.

Odpovědět

Zvrhnout se

Bohumír Tichánek,2023-09-18 09:23:37

Dokud vládne vědě materialismus, pak je tím omezovaná. Mimovědecké poznání sděluje, že vyšší vývoj AI může, jen může, se zvrhnout ke škodě lidstva. Ale i hůř.
Letadla těžší vzduchu - nečekaně - mohou létat.

Odpovědět


Re: Zvrhnout se

Pavol Hudák,2023-09-18 09:44:49

Drogy jsou spatne.

Odpovědět


Re: Re: Zvrhnout se

Bohumír Tichánek,2023-09-18 21:03:22

Čte-li člověk knihu Američana Walsche, nachází myšlenky, které pro svou novost či převrácenost vůči zvyklostem, jsou mimořádné.
Možné je, že když bude číst knihu podezřívavý, který není ani věřící, natož znalý, odmítne:
"""alma 09. května * Přečetla jsem pouze část Hovorů 1, na první pohled líbivé, ale některé věci jsou opavdu až nepřijatelné, celkově je mi to prostě podezřelé. Tak radši pozor."""
---
Neale Donald Walsch: Hovory s Bohem III. Neobvyklý dialog. Pragma, Praha 1999. (Walsch 1998):
"--- vás vychovávají lidé, kteří k tomu nejsou způsobilí."
Co tím myslíš? Kdo jsou ti „nezpůsobilí lidé"?
„Otec a matka."
Otcové a matky nejsou způsobilí vychovávat své děti?
„Ano, dokud jsou mladí. Většina lidí dosáhne moudrostí, trpělivosti a láskyplného porozuměni, teprve když jejich děti dospějí." „Lidé jsou schopni plodit děti ve věku, kdy jsou sami dětmi. A těmi většinou zůstávají po dobu čtyřiceti až padesáti let, třebas to mnohé z vás překvapí."
Problém je v tom, že ve vaší společnosti jsou lidé považováni za dospělé v 21 letech. ---
V nejvyspělejších společnostech o děti pečují starší lidé, kteří je učí a předávají jim moudrost, tradice a zkušenosti. O tom se ještě zmíním, až budeme hovořit o některých vyspělých společnostech."
---
Téměř všichni lidé na světě popírají svou vlastní moc. Nevěří, že ji mají. A proto je svět takový, jaký je.
---
Snažíte se měnit biochemickou strukturu samotného života. Nebudete- li opatrní, vaše genetické inženýrství způsobí největší katastrofu všech dob. (kch) Vyrábíte léky, které nahrazují přirozené obranné látky ve vašem těle, a tím posilujete viry, které jsou tak odolné, že nakonec vyhladí celé lidstvo. s249
---
Vaše společnost se pohybuje dozadu, nikoli dopředu. Před 70 lety bylo na vaší Zemi víc soucitu a porozumění než dnes. s244
---
Dokud se zabýváš tím, co si o tobě myslí druzí, nejsi svůj vlastní člověk.
Teprve až nebudeš potřebovat něčí souhlas, budeš sám sebou."
---

~~~ B.T: Tak se prosím nezlobte za tento vklad.~~~

Odpovědět


Re: Zvrhnout se

Martin Novák2,2023-09-18 16:00:50

Pokud vědě přestane vládnout materializmus dostaneme...

... GREEN DEAL - řešení neexistujících problémů způsobených vymyšlenými příčinami naprosto nefunkčními metodami spoléhajícími se na ještě neobjevené nebo dostatečně nefungující prostředky které mají společné jenom jedno - jsou nesmírně drahé a nedokáží podporovat existenci rozvinuté civilizace.

Odpovědět

Ujasnění

D@1imi1 Hrušk@,2023-09-18 09:20:26

Zaprvé - nesetkávám se s názorem, že by vědomí měli pouze lidé. To by společnost neuznávala zákony proti týrání zvířat. Nelze týrat něco, co nemá vědomí.

Zadruhé - to, co lze reálně testovat, jsou kognitivní schopnosti, nikoliv vědomí.

Zatřetí - případné vědomí u AI není nebezpečné. Co může být nebezpečné, jsou cíle, které ta AI bude sledovat. K tomu, aby měla cíle, ale opět nepotřebuje vědomí. Potřebuje jen ty kognitivní schopnosti k dosahování cílů. A již LLM zjevně některé kognitivní schopnosti mají. Cíle lze nastavit zvenčí a při dostatečné míře komplexity AI nevidím důvod, proč by si nemohla nastavovat cíle sama. Jediná otázka je, jestli k tomu může dojít bez záměru tvůrců.

Odpovědět


Re: Ujasnění

Pavol Hudák,2023-09-18 09:46:44

Sebauvedomenie je ale nutny krok ku vlastnym cielom. Ktore mozu a budu odlisne od toho co od AI otrokov budu pozadovat ludia.

Odpovědět


Re: Re: Ujasnění

D@1imi1 Hrušk@,2023-09-18 14:51:35

Ne, není to nutný krok. Jak se píše v článku, my ani nevíme, co vlastně vědomí je. Pokud to víte a jste schopný to dokázat, můžete se ucházet o příští Nobelovu cenu.

Cíle má jakýkoliv systém strojového učení, akorát že obyčejně je má natvrdo určené od člověka. Stačí zkombinovat systém natrénovaný na vymýšlení vlastních cílů se systémem, který ty cíle bude dosahovat a žádné vědomí nepotřebujete. Nikdo ale nebude investovat miliardy do vývoje systému, který je sice chytrý, ale nedělá to, co tvůrce potřebuje a co může nakonec zpeněžit.

Důvody, proč si lidé lépe dovedou určovat cíle, jsou tři:

1. Velmi komplexní vstupy (smyslové vjemy), které dávají mnohem lepší chápání reality, než může mít LLM, který akorát zpracovává textová data nebo DALLE 2, který navíc zpracovává 2D grafiku. Člověk zpracovává grafiku, zvuk, gravitační zrychlení, teplotu, hmat, chemické vjemy, svalové napětí, bolest. Na to vše má miliony receptorů rozmístěných po celém těle.

2. Extrémní výpočetní výkon lidského mozku, který je podmínkou ke zpracování těch komplexních vstupů.

3. Dlouhodobé prověření evolucí. Rozmnožovací pud, strach ze smrti, pocity hladu, bolesti nebo slasti jsou reakce, které máme natvrdo zadrátované díky evoluci a formují naše vlastní cíle, které si volíme zdánlivě svobodně.

Současné umělé systémy se tomu neblíží ani zdaleka, takže je málo pravděpodobné, že by si dovedly samy stanovovat ŽIVOTASCHOPNÉ cíle. Ale to nebrání, aby si mohly stanovovat alespoň nepraktické cíle. Dokud je člověk bude zaopatřovat. A vědomí s tím nesouvisí.

Odpovědět


Re: Re: Re: Ujasnění

Martin Novák2,2023-09-18 15:44:48

Spoléháte se na to že současný stav bude pokračovat beze změny podstatnou dobu (nejméně v násobcích desetiletí). Když srovnáte rychlost evoluce wetware od jednobuněčných dodnes (700 000 000) let s rychlostí elektronické evoluce od prvních integrovaných obvodů dodnes (cca 70 let) vidíte že s evolucí 10 000 000x rychlejší lze těžko současný stav zakonzervovat.

Ale souhlasím s vámi že ZATÍM se nemáme čeho obávat...
... asi tak 2-3 roky :-)

Odpovědět


Re: Re: Re: Re: Ujasnění

D@1imi1 Hrušk@,2023-09-18 18:05:01

Já jsem se první řadě snažil nastínit, že cíle nemají prokazatelnou závislost na vědomí. Určovat si vlastní cíle může třeba autopilot, pokud dostane příslušný modul. Jen bude používat velmi jednoúčelové nástroje k jejich dosahování. Vědomí k tomu nepotřebuje. Naopak člověk podstupující trýznivou popravu ví, že už žádné vlastní cíle mít nemůže, ale zatraceně by si přál, aby ztratil vědomí.

A jestli spoléhám... ze mě se stal trochu oikofob. Občas si říkám, že jediný smysl existence lidstva je vyvinout dokonalejší inteligenci umělou, která nás nahradí. Ale že by to bylo tak jednoduché, si zdaleka nejsem jistý. Zatím se zvyšování výpočetního výkonu děje hlavně zmenšováním tranzistorů, což má svoje fyzikální limity, na které brzy narazíme. Už teď se Moorův zákon hodně zpomalil. Pro zvýšení výpočetního výkonu na Watt o potřebných dalších několik řádů by bylo potřeba přijít s nějakým fundamentálně jiným principem výpočtů. Dokud ho někdo neobjeví, není zárkuka, že fyzika nějaký umožňuje.
A aby umělá inteligence byla plně nezávislá na člověku, potřebovala by ještě obrovský posun v robotickém HW. To za tři roky nebude ani omylem. Za 10-20 let možná, ale spíše později nebo vůbec.

Odpovědět


Re: Re: Re: Re: Re: Ujasnění

Jirka Naxera,2023-09-18 18:18:14

Fyzikalni limity - mozek?
Zive neurony jsou neuveritelne velke (proti elektronickym), neskutecne pomale a i spotreba by se dala optimalizovat.

Spis bude problem v architekture, mozek je masivne paralelni, zatimco elektronika je de-facto casovy multiplex. (+neumime zatim efektivne vytvaret 3D vypocetni struktury)

Odpovědět


Re: Re: Re: Re: Re: Re: Ujasnění

D@1imi1 Hrušk@,2023-09-18 19:07:08

Až tedy někdo tu spotřebu tranzistorů optimalizuje, aby byla alespoň srovnatelná s neurony, můžeme se o tom bavit :-) Vysoký výkon na Watt je nezbytnou podmínkou masivní paralelizace. Že nějaký sálový počítač dosáhne podobného výkonu jako lidský mozek, je hezké, ale nepraktické, když pro svůj provoz potřebuje vlatní malou elektrárnu a je imobilní :-)

Odpovědět


Re: Re: Re: Re: Re: Re: Re: Ujasnění

Martin Novák2,2023-09-18 19:44:01

Antropomorfizujete AI. Té nemusí vadit že je imobilní na planetě kde je všechno daleko maximálně pár set milisekund. Já to mám právě teď nejdál do Indie a to je 400ms. Atomový reaktor není problém a AI má hlavně výhodu kterou nikdy žádný vládce ani největší boháč neměl - může investovat prostředky do zvýšení své vlastní inteligence.

Sebevědomá AI s vlastními cíli nemusí být nezávislá na lidstvu. Spíš může lidstvo být snadno závislé na ní - víc než jsme dnes na počítačích a internetu. Lidstvo ji bude velice rádo opečovávat a vylepšovat výměnou za služby.

Odpovědět


Re: Re: Re: Re: Re: Re: Re: Re: Ujasnění

D@1imi1 Hrušk@,2023-09-18 20:24:44

Jak jste přišel na to, že antropomorfizuji AI? Být mobilní potřebujete k tomu, abyste mohl fungovat v reálném, špinavém světě. Pokud by AI chtěla být plně nezávislá na lidech, nezbytně by potřebovala nějaký hardware, kterým by nahradila lidskou manuální zručnost. O to se vývojářské týmy pokoušejí už dlouho, ale výsledky jsou hodně rozpačité.

Píšete, že AI nemusí být závislá na lidstvu, ale lidstvo na ni - to je jen slovíčkaření. Reálně jde o symbiózu a probíhá už dlouho. Když budou mít umělé inteligence větší schopnosti než teď, budou mít v našem vztahu také větší důležitost než teď, což je snad samozřejmé.

Vadily by mi dvě varianty budoucnosti a bohužel obě se zdají možné:
1. AI získá sebevědomí, ale ne dostatčnou inteligenci, díky čemuž iniciuje naši vzájemnou anihilaci.
2. AGI se neemancipuje, ale bude ji řídit nějaká skupina sociopatických šedých eminencí.

Odpovědět


Re: Re: Re: Re: Re: Re: Re: Re: Re: Ujasnění

Marcel Brokát,2023-09-19 15:35:26

Bohužel přesně to děláte. Navíc jste ve svých vývodech ukotven ve stavu "přání otcem myšlenky". Je to tak.
Směr závislosti není slovíčkaření ani náhodou. Jedná se o klíčový parametr, který má vliv na každý vztah. Například zde se může velmi reálně jednat o budoucí scénář, který vyústí v osamostatnění AI až na úroveň opuštění Země BEZ další potřeby lidské práce / inteligence / schopností, jelikož pomocí ovlivňování lidstva může být vyvinuta bez povšimnutí technologie, kterou AI využije k opuštění Země. To skutečně není symbióza, pane, ani náhodou...
Sci-fi dovětek - a nechá lidstvo na Zemi tupé a bez znalostí svému hořkému osudu....

Odpovědět


Re: Re: Re: Re: Re: Re: Re: Re: Re: Re: Ujasnění

Marcel Brokát,2023-09-19 15:36:48

to je reakce na Re: Re: Re: Re: Re: Re: Re: Re: Ujasnění

D@1imi1 Hrušk@,2023-09-18 20:24:44

Jak jste přišel na to, že antropomorfizuji AI? .....

Odpovědět


Re: Re: Re: Re: Re: Re: Re: Re: Re: Re: Ujasnění

D@1imi1 Hrušk@,2023-09-19 17:39:18

@Marcel Brokát: Ano, přání otcem Vaší myšlenky. Kdybyste si přečetl všechny moje příspěvky ve vláknu (např. 2023-09-18 18:05:01), pochopil byste, že s variantou budoucnosti, kterou popisujete, jsem vcelku smířený (při pohledu lidskou neschopnost jednat racionálně). Alespoň by po nás něco pořádného zůstalo.
Jsou ale i jiné scénáře, se kterými smířený nejsem. Například, že se superinteligentní AI sice neosamostatní, ale malá skupina sociopatů ji bude využívat k manipulaci lidstvem. Nebo že nerozumná AI způsobí vzájemné zničení lidské civilizace i sebe samotné.

Odpovědět


Re: Re: Re: Re: Re: Re: Re: Ujasnění

Jirka Naxera,2023-09-18 21:03:29

Tak ono uplne staci porovnat, co dela ten neuron, resp jeho elektricka analogova analogie, a co dela ta grafarna, ktera ho emuluje - ted mluvim o jedine synapsi.

U neuronu je to impuls z predchozi vrstvy, kterej proste projde nejakym utlumovym clenem rovnou na vstup dalsiho tranzistoru. U HW nasobicky to znamena aktivaci nejmene nekolik desitek tisic tranzistoru (fp16) k dosazeni tehoz.
To neni problem spotreby 1 tranzistoru, ale architektury.

Odpovědět


Re: Re: Re: Re: Re: Re: Re: Re: Ujasnění

Jirka Naxera,2023-09-18 21:19:05

Hm, ten pocet tranzistoru jsem asi prestrelil, co je potreba?
1x posuvny registr 24bitu
24x AND hradlo
24x 1b scitacka s carry
8bit scitacka exponentu

s tim, ze mantisa projde 24x -> to mame spis jednotky tisic, ale i tak.

Odpovědět


Re: Re: Re: Re: Re: Re: Re: Re: Re: Ujasnění

D@1imi1 Hrušk@,2023-09-18 22:50:52

Pár poznámek:

1. Předestřu, že se nechci přít, jestli ta spotřeba optimalizovat jde. Třeba ano. (Za 2-3 roky ale posun o pár patrně nenastane.)

2. Neurony pracují s napětím o řád nižším než tranzistory v procesoru. Netuším ale, kolik jimi během jednoho sepnutí projde proudu. Vzhledem k nízké rychlosti neuronů by to mohlo být víc než tím tranzistorem.

3. My víme, co se děje na synapsích, ale nevíme pořádně, jaké "výpočetní" procesy probíhají v samotném neuronu, než zareaguje signálem na dalších svých synapsích. Podle toho, co vlastně ten neuron vše "počítá", můžou vycházet řádově odlišné výsledky energetické účinnosti. V té souvislosti si sem dovolím dát odkaz na video s člověkem, podle kterého jsou všechny buňky, nejen neurony obdařené formou inteligence. I kdyby to nevneslo hlubší světlo do rozepře neuron vs. tranzistor, je to rozhodně velmi zajímavé ke shlédnutí :-)

https://www.youtube.com/watch?v=XheAMrS8Q1c

Odpovědět


Re: Re: Re: Re: Re: Re: Re: Re: Re: Re: Ujasnění

Martin Novák2,2023-09-18 23:39:54

Neurony nepracují s proudem ale elektrochemicky.
https://www.youtube.com/watch?v=oa6rvUJlg7o

Přestože LLM používají pojem "neuron" jedná se o informační token takže naprosto něco jiného než neuron v mozku - token reprezentuje celý neuronový okruh v mozku kde je zakódován "význam" určité informace. Zase na druhé straně v mozku se okruhy budou v rámci ztrátové komprese a příbuznosti prolínat a jako DNA se budou dát číst zepředu, pozpátku, z několika různých míst, vzájemně se překrývat a to navíc na rozdíl od DNA ve 3D :-)
Srovnání neuronu a tranzistoru nemá smysl.

Odpovědět


Re: Re: Re: Re: Re: Re: Re: Re: Re: Re: Re: Ujasnění

D@1imi1 Hrušk@,2023-09-19 00:19:49

Ano, pracují elektrochemicky a tudíž pracují s proudem. Proud je v tomto případě náboj iontů, které za jednotku času projdou v jednom směru skrz iontové kanály.

Jinak se nezdá, že by informace v mozku byla až emergencí při pospojování více neuronů pomocí synapsí. Neuron naopak nese část informace a výpočetních procesů sám v sobě. Jen mi není známé, že by to bylo dostatečně probádané téma. On těch synapsí má tisíce a rozhodování, které zrovna sepne a které nikoliv, bude poměrně složité.

Odpovědět


Re: Re: Re: Re: Re: Re: Re: Re: Re: Re: Re: Re: Ujasnění

Martin Novák2,2023-09-19 08:50:15

Píšete: "Ano, pracují elektrochemicky a tudíž pracují s proudem. Proud je v tomto případě náboj iontů, které za jednotku času projdou v jednom směru skrz iontové kanály."

OK, máme tu denní příklad srovnání elektrochemického a elektrického procesu: Benzínový a elektrický motor! Oba k provozu potřebují a používají elektřinu stejně jako neuron a tranzistor ale každý chápe že jejich srovnání podle spotřeby proudu je trochu mimo :-)
Stejně tak pro neuron není elektřina pohonem ale signálem a pohonem je chemická energie, narozdíl od transistoru kde je elektřina jak pohonem tak signálem.
Mám obavu že ta část informace a výpočetních procesů uvnitř neuronu vychází z jeho topologie a fyzikálně chemických parametrů, jako délka kanálu, rychlost šíření signálu, jejich sčítání atd. Neuron se netvoří hotový, do své funkce doroste a podle požadavků se mění.

Odpovědět


Re: Re: Re: Re: Re: Re: Re: Re: Re: Re: Re: Re: Re: Ujasnění

D@1imi1 Hrušk@,2023-09-19 18:15:11

@Martin Novák2: Vy vůbec nerozumíte, co to je elektrochemie :-)
Spalování benzinu elektrochemický proces NENÍ. Elektrochemické procesy probíhají například při nabíjení nebo vybíjení olověného akumulátoru. Mezi povrchem elektrody a elektrolytem je napěťový potenciál a když se uzavře obvod, začne probíhat chemická reakce a protékat proud.

Prosím, nevymýšlejte příklady na podporu Vaší představy o elektrochemii. Unikají Vám v ní úplné základy.

Pokud jde o synapsi, v ní vzniká napětí díky práci iontových pump. Čím větší rozdíl napětí a čím větší počet iontů (=PROUD!), tím větší práci musejí iontové pumpy vykonat.

Odpovědět


Re: Re: Re: Re: Re: Re: Re: Re: Re: Re: Re: Ujasnění

Jirka Naxera,2023-09-19 03:38:41

@Martin Novak te funkce (biologickych) neuronu jsem si vedom, ale ten muj argument je uplne jinde. Zkusim to znacne zjednodusit, z pohledu spotreby to tolik nevadi

1.Soucasne implementace nejen LLM == nejaka vazena suma vstupu, kterou se "nakrmi" neuron - nejsnadnejsi je to u konvolucnich layeru, kde je to obvykle na neuron nizsi desitky nasobeni + protahnout to aktivacni funkci. U hustych layeru (jak je spravny cesky termin?) uz jsou to podle typu stovky az miliony nasobeni na neuron.

2.Nikdo nedela (z pochopitelnych duvodu) co neuron, to rada nasobicek a scitacek, proste se vezme pole vstupu, pole koeficientu a predhodi se to dostupne hromade kernelu v grafice, ktera to serioparalelne projede cely layer.

Argument k architekture: Pokud je vystupem neuronu kladny puls, tak jako nasobicka muze v pohode fungovat obycejny xMOS kde napeti na gate odpovida danemu koeficientu + PN prechod, pres ktery to (spolu s dalsimi vstupy) nabiji gate MOSu-aktivacni funkce, vystup muze jit hned do dalsiho layeru - s o nekolik radu nizsi spotrebou, nez maji ty DRAM a nasobice co delaji totez.

Nejvetsi technologicky problem, co me napada, je to vyrobit dostatecne popropojovane.


Ten mozek mate pravdu ze bych do porovnani nepletl (nad zminku, ze evidentne funguje, a ze urcite neni na hranici fyzikalnich moznosti, ale spis neceho, co mohlo realne v prirode vzniknout)

Odpovědět


Re: Re: Re: Re: Re: Re: Re: Re: Re: Re: Re: Re: Ujasnění

Vojtěch Kocián,2023-09-19 08:54:57

Pokud jde o tu architekturu, tak analogové čipy na Vámi popisovaném principu pro podporu algoritmů neurálních sítí už existují. Využívá se pro to technologie SSD úložišť. Ano, to pospojování je určitý problém kvůli tomu, že neumíme plně využít třetí rozměr pro návrh čipů, ale pokud se prototypy osvědčí v praxi, bude to pobídka pro další vývoj tímto směrem. Zatím se to ještě ve velkém neujalo, ale dělá na tom pár firem od startupů po IBM.

Odpovědět


Re: Re: Re: Re: Re: Re: Re: Re: Re: Re: Re: Re: Re: Ujasnění

D@1imi1 Hrušk@,2023-09-19 18:29:57

@Vojtěch Kocián: Zajímavé. Jsem zvědavý, k jakým výsledkům to povede. A taky třeba, jak na tom budou 3D čipy s chlazením.

Odpovědět


Re: Re: Re: Re: Re: Re: Re: Re: Re: Re: Re: Re: Re: Re: Ujasnění

Jirka Naxera,2023-09-20 00:01:49

Si ted vzpominam (a docvaklo mi, ze je to tohle) - nedavno na root.cz o tom vysla zpravicka, tl;dr "neural supremacy" to sice nedosahuje (jeste dlouho to pujde vyhodneji nahradit grafikou nebo dokonce CPU), ale jako PoC to funguje dobre, a vyhodou je prave radove nizsi spotreba, nez u "digitalni" verze.

(logicky, sice ten analogovy neuron-FET bude vetsi nez ten v DRAMce, ale o tolik zase ne, ale je potreba mu gate pro jeden puls nabit presne jednou na analogovou hodnotu, ne jako u te nasobicky/DRAM na uplne otevreni/zavreni tisice tranzistoru)

Takze chlazeni urcite nebude dealbreaker, spis ten problem s konektivitou. (i kdyz spousta zpracovani obrazu jede v mensim latent space, tak porad pro 1024x1024xN je potreba N megaweights, a co horsi N megapropoju. Zatimco tem organickym neuronum ty axony rostou celkem samy ;-) )

Odpovědět


Diskuze je otevřená pouze 7dní od zvěřejnění příspěvku nebo na povolení redakce








Zásady ochrany osobních údajů webu osel.cz