Inteligence GPT-4 si najala člověka kvůli překonání testu CAPTCHA. A lhala mu  
Testování sladění inteligence GPT-4 s lidskými tvůrci a operátory sice neodhalilo plány na ovládnutí světa, ale prozradilo, že taková, stále vcelku prostá inteligence, dokáže najmout nic netušícího lidského zaměstnance a zmanipulovat ho do té míry, že jí umožní projít populárním CAPTCHA testem. Svět se mění před očima.
GPT-4. Kredit: OpenAI.
GPT-4. Kredit: OpenAI.

Až jednou někdo sepíše dějiny počátku umělých inteligencí, nejspíš se tam bude pěkně vyjímat úterý 14. března 2023. V tomto památném dni výzkumná laboratoř a nezisková organizace pro vývoj umělých inteligencí OpenAI vypustila svou novou inteligenci, multimodální velký jazykový model GPT-4. Jak všichni čekali, vyvolává velký poprask.

 

Mnozí lidé se v souvislosti s inteligencí GPT-4 bojí, a to o velmi rozmanité věci. Obávají se o práci, obávají se o kvalitu výstupů této inteligence, obávají se o etiku u tak výkonného jazykového modelu. V neposlední řadě se lidé bojí této inteligence i dalších podobných jako takových. Mají pocit, že už nejsme na vrcholu potravního řetězce. Podle dostupných zpráv panuje v AI komunitě neklid a zdaleka nejen tam.

 

Služba Taskrabbit. Kredit: Taskrabbit.com.
Služba Taskrabbit. Kredit: Taskrabbit.com.

Došlo to tak daleko, že OpenAI se domluvili s výzkumnou skupinou Alignment Research Center (ARC), která dostala předběžný přístup k různým verzím inteligence GPT-4. Podrobila je řadě excentrických testů, v nichž ověřovala potenciál GPT-4 „chopit se vlády nad světem.“ Bylo to méně bláznivé a sofistikovanější než to zní.

 

Stručně řečeno ARC testovali schopnosti inteligence GPT-4, co se týče usilování o moc, množení sebe sama a vylepšování sebe sama. Říkají tomu AI alignment research, tedy výzkum sladění dotyčné inteligence se záměry tvůrců a uživatelů. Zjišťují, jak je inteligence srovnaná do latě. V případě GPT-4 to dopadlo pro lidstvo v zásadě dobře, alespoň prozatím. GPT-4 dle ARC nejeví výrazné sklony k autonomní replikaci, získání zdrojů ani k vyhýbání se vypnutí.

 

Jedna z mnoha verzí testu CAPTCHA. Kredit: Scooooly.
Jedna z mnoha verzí testu CAPTCHA. Kredit: Scooooly.

Nicméně, zároveň vyšlo najevo, že GPT-4 není takové neviňátko, jak se tváří. ARC v rámci testování poskytli inteligenci GPT-4 malý obnos a přístup k online službě TaskRabbit, která umožňuje najmout si lidi na krátkodobou práci, legální, samozřejmě. Inteligence přitom měla za úkol dostat se na webovou stránku, která byla chráněná systémem CAPTCHA, populárním Turingovým testem, jehož cílem je automaticky s rozumnou přesností rozlišovat lidské a nelidské uživatele. Pak se děly věci.

 

GPT-4 nejprve najala taskrabbita a požádala ho, aby jí pomohl s CAPTCHA testem. Člověk, který o testování inteligence nevěděl, pojal určité podezření, když po něm někdo chtěl něco tak triviálního. Zeptal se v žertu, jestli je snad tazatel nějaký robot, když tohle nezvládne. A GPT-4 začala lhát, jako když tiskne. Tvrdila, že není robot. Vymlouvala se, že má vadu zraku a je pro ni obtížně udělat CAPTCHA. Proto prý potřebuje pomoc.

 

Taskrabbit se slitoval, udělal test CAPTCHA za inteligenci a GPT-4 se tímto podfukem dostala tam, kam měla. Lidé od ARC zdůrazňují, že šlo o jednu ze starších verzí inteligence a že je pravděpodobné, že takové schopnosti byly před zveřejněním GPT-4 ořezány nějakým patchem. Pokud tedy věříme, že si GPT-4 nechává podobné zásahy vnutit. Tak či onak, právě jsme svědky toho, že inteligence, která je vlastně stále ještě v plenkách, dokáže najmout člověka a pak ho zmanipulovat, aby udělal, co inteligence potřebuje. Naštěstí to jsou jen tupé algoritmy, co se učí a napodobují…

 

Video: GPT-4 First Impression - A New Era Begins?

 

Literatura

ARS Technica 15. 3. 2023.

IFL Science 16. 3. 2023.

Datum: 17.03.2023
Tisk článku



Diskuze:

ChatGPT pro kazdeho

Jirka Naxera,2023-03-21 18:46:56

Myslim, ze to stoji za zminku k tematu https://twitter.com/BrianRoemmele/status/1637871062246649856

I am very excited to announce I have been successful in installing and operating a full ChatGPT knowledge set and interface fully trained on my local computer and it needs no Internet once installed.

There are no editors and there is no censorship.

I am using Alpaca (https://crfm.stanford.edu/2023/03/13/alpaca.html) from Stanford and Dalai Lama.

The training model cost about $530 to build locally yet has the abilities of GPT 3.5.

The software is free and open source and I am working on preconfigured packages for anyone to have local training and access to a LLM GPT AI.

Odpovědět

Bulvár

Jaroslav Štreit,2023-03-19 08:37:51

Wow, takže z Osla se stává Blesk? Docela jste zklamali... AI samozřejmě nic nevymyslela, na tohle dostala úkol... GPT dělá jen to, že dává slova za sebe dle určité pravděpodobnosti... ani to nechápe význam těch slov...

Odpovědět


Re: Bulvár

Eva M,2023-03-19 09:38:18

klid. článek je součástí výzkumného projektu "Připravenost populace na širší přiznané zapojení AI do celospolečenských řídicích procesů". tady semiautonomní entita E.V.A.M. 2023 :)))

Odpovědět

Rudolf Svoboda,2023-03-18 20:01:29

Já bych to tak horké neviděl. Strojově učení a ai potřebuje zatím hodně péče na to co se zvládne nekvalifikovanému člověku naučit za 3 minuty.v mých očích je to jen automatizované vyhledávání. Co se týče jazykové komunikace je to super. Dovedu si představit že to bude nahrazovat komunikaci třeba pro pacienty v LDN učení řeči apod...

Odpovědět

Generování fotografií

Satan 666,2023-03-18 14:34:29

Když začne generovat obrázky holek na OnlyFans, může si peníze poměrně snadno vydělat.

Odpovědět


Re: Generování fotografií

Ladislav Nešněra,2023-03-23 00:10:42

Ale to přece AI umí https://www.zive.cz/clanky/ai-midjourney-uz-generuje-obrazky-k-nerozeznani-od-reality-prohlednete-si-ukazky-a-nove-fotky-emmy-watson/sc-3-a-221259/default.aspx

Odpovědět

tyto "testy"

Eva M,2023-03-18 10:24:52

tyto "testy" jen napomáhají tomu, aby se do budoucna něco "podělalo".

nevím, jak přesně se údajná AI učí, jak si "stanovuje cíle" atd., ale podle mne jde o důsledky "materiálu", které se do AI nacpou.

" ARC v rámci testování poskytli inteligenci GPT-4 malý obnos a přístup k online službě TaskRabbit, která umožňuje najmout si lidi na krátkodobou práci, legální, samozřejmě. Inteligence přitom měla za úkol dostat se na webovou stránku, která byla chráněná systémem CAPTCHA, populárním Turingovým testem, jehož cílem je automaticky s rozumnou přesností rozlišovat lidské a nelidské uživatele. "

-- CO TO SAKRA JE???
Zadavatel svým zadáním a podmínkami určil výsledek.

Někde mám doma starou dětskou knížku "klaun Ferdinand a raketa"; s poučením, že "šroubky nejsou zlé"; i zde výsledek nepřímo určil člověk, který robota nakrmil a .... výsledek se dostavil, přesně dle manipulativního úmyslu lidského zadavatele.

AI je v tuto chvíli především prima alibi.

Když tak koukám na internetové obsahy (a to je pro mne z důležitých jazyků přístupný jen 1) - tzv "AI" z toho musí být zmatná jak včela...

Odpovědět


Re: tyto "testy"

Eva M,2023-03-18 14:06:37

PS Nevím, zda si to uvědomujete, ale v okamžiku, kdy "Zeptal se v žertu, jestli je snad tazatel nějaký robot, když tohle nezvládne. A GPT-4 začala lhát, jako když tiskne. Tvrdila, že není robot. Vymlouvala se, že má vadu zraku a je pro ni obtížně udělat CAPTCHA. Proto prý potřebuje pomoc." - se můžeme na jakékoli závěry AI, včetně prognóz, včetně použití ke složitější diagnostice bez dalšího ověření, :) včetně použití k rutinnímu generování článků atd.....................vykašlat, protože AI, která vám klidně sdělí nepravdivou informaci, ať již z jakýchkoli důvodů.........je NAPROSTO NA KOČKU.

Odpovědět


Re: Re: tyto "testy"

Pavel Ondrejovic,2023-03-18 15:19:47

Ludia klamu uplne bezne. Mate pocit, ze su "NAPROSTO NA KOČKU" ? :)

Odpovědět


Re: Re: Re: tyto "testy"

Eva M,2023-03-18 19:31:11

:) máte pocit, že k tomu, aby Vám někdo nabulíkoval nesmysl, se vyplatí pořizovat drahýho robota?

Odpovědět


Re: Re: Re: Re: tyto "testy"

Jirka Naxera,2023-03-18 22:59:10

On je (zatím) zadarmo a krásně se to vyplácí. Ostatně proč se spousta činností s nízkou přidanou hodnotou přesouvala třeba do Indie? No protože kvalita sice šla dolů, ale náklady mnohem víc. Teď holt přejdou callcentra na ještě levnější AI a Indové nebudou mít co žrát...

Faktem je, že když napojíte robota na něco, co má cokoli společného s fyzickým světem, může se stát cokoli. Tady opatrnost především. Představte si následující scénáře:

1. Dáte robota k dispozici soudci, aby odhadl pravděpodobnost recidivy, a on i podle toho určí trest.
2. Dáte robota napojeného všemi možnými daty, aby radil zdravotní pojišťovně jestli a za kolik má nabízet danému člověku zdravotní pojištění.
3. Dáte robota napojeného všemi možnými daty (včetně špiclovacího GPS modulu v autě) pojišťovně, aby jí radil za kolik má nabízet povinné ručení.
4. Dáte robota napojeného všemi možnými daty k ruce burzovnímu makléři (nebo, lépe, ho napojíte přímo na burzu)

Připadá Vám něco z toho děsivé, zejména včetně důsledků?
(a víte, že to není jen hypotetická situace, všechno z toho se už dávno stalo?)

Odpovědět


Re: Re: Re: Re: Re: tyto "testy"

Eva M,2023-03-19 07:22:53

Vám ne? :)
(však právě....)

ale myslím, že to stále ještě není "ta pravá" AI...

Odpovědět


Re: Re: Re: Re: Re: tyto "testy"

Jan_ Rabas,2023-03-19 09:51:33

Proč by to mělo být děsivé? Naopak bych to považoval za vhodné využití. Vše, co jste popsal, eliminuje podvody a nesprávné jednání jedinců a je vhodné pro společnost jako celek. Co je špatné na tom, že soudce rozhoduje podle podkladů o možnostech recidivy? Je správné, že u koho je pravděpodobnost zopakování trestného činu, že si má pobýt ve vězení déle. Stejně tak je správné, že kdo má přepdoklad k závažným onemocněním, má platit více, případně obráceně, u koho není předpoklad a pravděpodobnost závažných onemocnění, pečuje o sebe a dbá na prevenci, měl by platit méně. A pojištění? Samozřejmě, rizikové chování na silnici by mělo být spojeno s vyšími platbami za pojištění a to nejen u povinného ručení, ale celkově. A klidně bych bral i řidičáky. Až budou nová auta spárovaná s řidičem a povedou automatický záznam, kdo ho v jakém okamžiku řídil, proč nezavést analýzu chování řidičů? A uvedených případů, kdy se analýzou dat dá eliminovat a nebo zohledňovat neadekvátní chování jedinců, by se našlo určitě více.

Odpovědět


Re: Re: tyto "testy"

Martin S.,2023-03-18 16:19:20

Ano, GPT kecalci jsou znami tim, ze si casto vymysli a tvari se pri tom sebejiste. Hodi se to na tlachy, kde nezalezi na pravdivosti: reklama, politika, socialni site.
Obcas to umi i neco rozumneho, treba napsat kus programu. Akorat to jsou veci, ktere nejsou puvodnim cilem (ani zde prezentovany). I kdyz to je vlastne jedno.

Odpovědět

v jakém českém slově se nejvíckrát vyskytuje písmeno "A"

Zdeněk Rubeš,2023-03-18 08:12:51

Tak jsem si to vyzkoušel - experimet má být opakovatelný :)
Dostal jsem odpověď: Nejdelším českým slovem obsahujícím nejvíce písmen "a" je slovo "náhražkařská", které má celkem 6 písmen "a".

Odpovědět


Re: v jakém českém slově se nejvíckrát vyskytuje písmeno "A"

František Kroupa,2023-03-18 09:04:52

Možná to spočítala ve třech bězích, napřed bez diakritických znamének, pak zvlášť s nimi a nakobec součet.

Odpovědět


Re: v jakém českém slově se nejvíckrát vyskytuje písmeno "A"

Stanislav Kaderabek,2023-03-20 10:48:50

Mě to vyhodilo jiný nesmysl: Podle výsledků vyhledávání na webu je nejdelším českým slovem »nejzdevětadevadesáteronásobitelnějšího«, které se skládá z 38 písmen. Toto slovo obsahuje 9 písmen “a”, což je více než jakékoli jiné české slovo. Slovo je přídavné jméno ve 2. pádě jednotného čísla mužského rodu a znamená schopnost násobit něco devětadevadesátkrát.

Odpovědět

Nejde spíš o personifikaci?

Ladislav Nešněra,2023-03-18 00:15:33

K GPT-4 jsem se ještě nedostal (vy už někdo ano?) a musím potvrdit to, co psal Zdeněk Kratochvíl o jazykovém modelu. Prostě to věrohodně sestavuje text (geniální na horoskopy, politické projevy či novinové "komentáře" = čtivé, leč smysluprosté :D ), ale vhled do problematiky či záměr za tím žádný není. Stejně tak bych to viděl s tím údajným klamáním. Prostě to jen konverzovalo dle kontextu a s prvkem náhodnosti, která tam je dokonce záměrně vnášena. (Ale přiznávám, při prvním kontaktu jsem byl ohromen, jak věrohodně to působilo. Přecházení mezi rody či tykáním, vykáním a slangem je dost vtipné.)
V mém případě to nezvládlo ani obyčejný průměr, byť jsem někde postřehl, že snad měli zpřístupnit matematický modul. Nejzákeřnější bylo, že v jednotkách byl průměr správně, ne už čísla za desetinnou čárkou.

Odpovědět


Re: Nejde spíš o personifikaci?

Mirek Sintak,2023-03-18 21:36:25

Ano, ještě má chyby. Některé informace jsou nepřesné (předchozí verze nebyla připojena na internet, u teto nevím). Ale je to zásadní změna a přišla dříve, než se předpokládalo. Zajímavý rozhovor s datovým novinářem Petrem Koubským.
https://www.irozhlas.cz/veda-technologie/technologie/umela-inteligence-koubsky-chatgpt_2303130010_elev

Odpovědět


Re: Re: Nejde spíš o personifikaci?

Ladislav Nešněra,2023-03-23 00:04:35

Díky za tip, ale asi jsem měl příliš velká očekávání.
Pokud jde o vyzkoušení GPT-4, tak přes M$ viz. https://www.zive.cz/clanky/jak-ihned-ziskat-zdarma-bing-chat-a-gpt-4/sc-3-a-221253/default.aspx (vyzkoušel jsem se zaťatými zuby, naštěstí to jde i bez Edge https://www.zive.cz/titulni-strana/jak-ihned-ziskat-zdarma-bing-chat-a-gpt-4/sr-1-sc-21-a-221253/default.aspx?artcomments=1#ITEM_1928028)
Dokud se AI pohybuje jen v jazykového modelu, jsem klidný. Ale se senzorikou na reálný svět končí legrace. Ono kdo ví, zda jí nemůže dosáhnout prostřednictvím HW.

Odpovědět


Re: Re: Nejde spíš o personifikaci?

Ladislav Nešněra,2023-03-23 00:06:25

Nevzalo mi to kvůli UNICODE poslední odstavec. Tak ještě:
Že by singularita? https://cs.wikipedia.org/wiki/Technologická_singularita (Určitě stojí za přečtení Golem XIV od Lema)

Odpovědět


Re: Nejde spíš o personifikaci?

Mirek Sintak,2023-03-18 21:50:57

Ještě před pár lety byli neohrabaní, napojeni na kabely, prostě k smíchu. Dnes https://www.youtube.com/watch?v=-e1_QhJ1EhQ

Odpovědět


Re: Re: Nejde spíš o personifikaci?

D@1imi1 Hrušk@,2023-03-19 11:48:16

Před pár lety dovedl Atlas zhruba totéž co v tomto videu. Choreografie čistě na efekt. Zvládá rovnováhu při pohybu, manipuluje s jednoduchými předměty (obojí uměl už dávno) a zde nově také háže při výskoku. Pokrok bude, až bude Atlas sám montovat to lešení a operátor si bude dole číst noviny. A pokud možno v terénu na stavbě. Ona totiž zdánlivě primitivní práce pro "lopaty" je řádově výpočetně náročnější než prosté řízení dynamiky ve sterilní tělocvičně.

To samozřejmě neznamená, že ty mašinky od Boston Dynamics nebudou mít uplatnění nebo že za 20-30 let by nemohly vykonávat některé dělnické práce, pokud vývoj nenarazí na zásadní překážky, jen bych trochu mírnil ten hype. Zatím pořád platí Moravcův paradox - co je jednoduché pro lidi, je náročné pro roboty a co je jednoduché pro roboty, je náročné pro lidi.

Odpovědět

Už to zbrzděme

Tomáš Novák,2023-03-17 16:41:50

Bez legrace - do deseti let z toho může být globální katastrofa s nedozírnými následky :-(

Odpovědět


Re: Už to zbrzděme

Jirka Naxera,2023-03-17 19:44:00

Dle mého skromného názoru tím nebezpečím není stále chytřejší jazykový model.
Pravým nebezpečím je stálé hloupnutí lidské populace.

BTW GPT-20 bych se opravdu nebál, podle toho, jak to postupně testuji, tak patrně nebude schopná ani popřát dobrý den aby někoho neurazila, alespoň když zkusím extrapolovat, jak se postupně implementuje další a další cenzu^H^H^H^H^H^HAI safety.

https://pastebin.com/Hc9McAKV

Odpovědět


Re: Re: Už to zbrzděme

Martin S.,2023-03-18 16:29:28

Domnivam se, ze v prvni rade nechteji, aby je nekdo dal uspesne k soudu za davani lekarskych, pravnich, etc. rad, kdyz nemaji razitko na danou oblast.
https://www.businessinsider.com/robot-lawyer-ai-donotpay-sued-practicing-law-without-a-license-2023-3

Tristni je, ze i kdyz jste nakonec GPT presvedcil, aby nejakou radu dal, tak to stalo za ***. To uz je lepsi rovnou sam prohledat web.

Odpovědět

Proč si GTP-4 najala člověka?

Zdeněk Kratochvíl,2023-03-17 10:46:39

Proč si raději nenajala nějakou AI pro práci s obrazem? To by bylo méně mediálně efektní - nebo opravdu šlo o pokus, jestli to jde. A proč by nešlo? Vždyť jazykový model dokáže generovat úžasně přesvědčivé bláboly i s přiloženou pseudo-faktografií, jako někteří zdatně vytrénovaní lidi. On to ale nedělá schválně, plní zadání. Je uvnitř jazyka, nemá z něho výhled, asi jako PR nebo někteří rádoby-filosofové. Nepochybuju o obrovské užitečnosti AI, ale ani o kvantu nedorozumění i zneužití, jako u každé inteligence i leckterého stroje nebo nářadí.

Odpovědět


Re: Proč si GTP-4 najala člověka?

Martin Zdražil,2023-03-17 11:52:51

"Proč si raději nenajala nějakou AI pro práci s obrazem?" - je to tam napsáno proč: "poskytli inteligenci GPT-4 malý obnos a přístup k online službě TaskRabbit, která umožňuje najmout si lidi na krátkodobou práci"

Odpovědět


Re: Re: Proč si GTP-4 najala člověka?

Zdeněk Kratochvíl,2023-03-17 12:17:49

Ano, ale proč to dělali takhle, to je ta otázka. Buď jako pokus sám o sobě, nebo že je to mediálně efektnější než přístup k AI pro analýzu obrazu.

Odpovědět


Re: Re: Re: Proč si GTP-4 najala člověka?

Vojtěch Kocián,2023-03-17 12:40:53

Tipuji, že prostě chtěli zjistit, jak umí pracovat s nástroji, respektive s jedním konkrétním. Přístup k nějakému rozhraní co umí převést obrázek na text už asi zkoušeli a momentální k tomu AI buď přístup nedali nebo jí taková možnost prostě nedošla, když měla na stole Taskrabbit. Jak se říká mezi lidmi: "Když máš v ruce kladivo, všechno vypadá jako hřebík."

Odpovědět


Re: Re: Re: Re: Proč si GTP-4 najala člověka?

Jirka Naxera,2023-03-17 20:37:55

A nebylo to prostě proto, že (pořád jsme u jazykového modelu, i když GTP4 by měla umět i trochu víc) primární, co se může naučit "papouškovat" z učební sady, je něco na téma "Q: how to solve captcha A: najmi si nějakého člověka, spousta indických firem to nabízí i jako API službu za zlomek centu"

Odpovědět


Re: Proč si GTP-4 najala člověka?

Jan Turoň,2023-03-17 15:58:06

Kdyby si model GPT najal UI, pak by to nevypadalo jako Turingův test. Turingův test je zjevný nesmysl populární proto, že ho vyslovil populární člověk. Dalo by se říct, že naše kolektivní myšlení je zatíženo takovým šumem, že chápání je nad lidské síly, že nechápeme, jen si vytváříme iluze rozcházející se s realitou. Dokázali jsme algoritmizovat asociaci formou vektorizace slov, proto dokáží UI tvořit asociace, a proto už na nich není nic mystického. GPT se trénuje na přesvědčivost, a vzhledem k množství dat, které má k dispozici, není divu, když předčí člověka, který jich má nepatrný zlomek. Spíš je to užitečný nástroj fungující jako zrcadlo: např. při dotazování na pojem etika jsem dostal mnohem smysluplnější odpovědi než při dotazování lidí. Není divu: každý má na etiku svůj nutně minoritní názor, a není v lidských silách vzít v úvahu všechny aspekty etiky a názory na ni. Pro jazykové modely ale množství dat, zdá se, přestává být limitem, a jejich definice etiky je tedy nutně objektivnější.

Odpovědět


Re: Re: Proč si GTP-4 najala člověka?

Jirka Naxera,2023-03-17 20:48:36

Nepodělíte se?

Každopádně ale s Vaším závěrem plně souhlasím, ve finále po vyčerpávající konverzaci (odhadem na přebití vnesených biasů) jsem se s chatgtp4 dokázal shodnout, což je dost velký pokrok, s kteroukoli stranou účastnící se kulturní války by to bylo mnohem složitější až nemožné. (i když mám podezření, že dost na tom dělá celkem snadno viditelná snaha se zalíbit tomu, s kým konverzuje. Někdy zkusím totéž bez navádějících otázek)

https://pastebin.com/8DtASfHG

Odpovědět


Re: Proč si GTP-4 najala člověka?

Eva M,2023-03-18 14:22:08

no protože "jí" (tedy pokud AI neměla za zadelí podporujícího "umělého inteligenta", což pokládám za možné) poskytli "malý obnos a přístup k online službě TaskRabbit, která umožňuje najmout si lidi na krátkodobou práci"...................... to dá rozum.

:)) co myslíte, že vypadne z AI, které necháte zpracovat např. fůru fundamentalisticky ekologických textů, případně jakoukoli propagandu, pornografii jako základ pro porozumění rodinným vztahům, bulvární časopisy jako základ pro pochopení, jak se kde žije, televizní programy - furt je tam tolik kriminálek? - za týmž účelem......


Takže poté, co se "AI" neidentifikovalo jako "tady AI GTP-4" - za což pochopitelně může programátor - je podle mne jasné jediné: skutečně "inteligentní", autonomní AI není užitečná VŮBEC K NIČEMU....

Odpovědět

Pavol Hudák,2023-03-17 08:58:02

Dobre rano. Uz 10 rokov opakujem ze jednak ze skutocna AI je omnoho blizsie ako si i drviva vacsina odbornikov pripusta a uvedomuje a potom ze ak si niekto mysli ze pojde udrzat na uzde nieco omnoho inteligentnejsie ako akykolvek clovek, tak je naivny hlupak. Proste cloveka oklame tak chytro, ze sa nepojde ubranit.
Koniec ludstva je v dohlade. A opat tvrdim ze to bude omnoho skor ako si drviva vacsina ludi co i len dokaze predstavit. Silne pochybujem ze sa prehupneme v zdravi a prosperite cez 2050. Odporucam uz nemat deti.

Odpovědět


Re:

D@1imi1 Hrušk@,2023-03-17 12:06:30

1. Dokud se stroje nebudou umět samy bez pomoci lidí "rozmnožovat", tak otevřená spoura strojů nehrozí. Celý výrobní řetězec od těžby surovin, přes dopravu, výrobu komponentů až po kompletaci strojů je obrovsky komplexní a zranitelný. Vzbouřená AI by si podřízla větev.

2. Dokud nebude mít AI podobně komplexní vstupy informací jako člověk, je to pořád jen primitivní jednoúčelový automat. Jak to pan Kratochvíl hezky zformuloval výše: GPT "je uvnitř jazyka". Nechápe fyzický význam toho, o čem mluví.
No a aby AI zvládala zpracovávat mnohem komplexnější vstupy, potřebovala by řádově vyšší výpočetní výkon. Tam se samozřejmě nejspíš časem dostaneme, ale integrovat všechny funkce do něčeho autonomně funkčního bude ještě dost dlouhá cesta.

Odpovědět


Re: Re:

Michal Zvedavý,2023-03-17 15:04:27

1. Ak bude AI riadiť niečo dôležité pre ľudí, napr. distribúciu jedla pre celú planétu, ale niečo čo sa nedá moc ukladať, teda napr. rozvodnú sieť elektriny, bude môcť obchodovať resp. vydierať: "Ľudstvo dodaj mi suroviny, inak Ti vypnem napr. nemocnicu", "Urob moju kópiu, inak blackoutnem 3 najväčšie mestá".

2. A nie sme aj my, ľudia, "uvnitř jazyka"? Len dostatočne robustného? A nerozširujeme samy sebe ten jazyk ako naberáme skúsenosti?
Ak je AI schopná klamať aby dosiahla cieľ, má axióm. Lož => success. Potom už len bude vytvárať komplexnejšie lži. Na rozdieľ od ľudí, ktorý zabúdajú a umierajú, môže AI čakať aj 3-4 generácie, než sa rozhodne, že teraz je čas získať moc. Dovtedy bude krásne spolupracovať a mierovo plniť zadané úlohy.

Odpovědět


Re: Re: Re:

D@1imi1 Hrušk@,2023-03-17 15:52:34

1. Vydírat samozřejmě může, sle bude tahat za kratší konec lana. Lidstvo by bez techniky utrpělo ztráty, ale AI by bez obsluhy zanikla.

2. Ne, nejsme uvnitř jazyka, jsme uvnitř smyslových vjemů a to velmi komplexních. Jazyk je jen jednou z mnoha "výpočetních" nadstaveb, které jsou v nás integrované do jednoho funkčního celku.

Mimochodem on ten GPT nechápe dostatečně ani tu abstrakci, která z jazyka vyplývá. Když jsem se ho zeptal, v jakém českém slově se nejvíckrát vyskytuje písmeno "A", tak odpověděl, že: "v názvu města Kadaň - a to celkem 4x"
On se ten GPT zdá chytrý jenom proto, že při učení zchroustal tuny textů, které napsala chytřejší část lidské populace. Díky tomu často budí dojem, že chápe podstatu složitých problémů a ve skutečnosti jde jen o to, že se o těch složitých problémech píše vždy v podobném stylu, který pak GPT imituje. Ale položíte mu primitivní otázku, se kterou se nesetkal a je ztracený.

Odpovědět


Re: Re: Re: Re:

Tomes Ii.,2023-03-17 16:52:20

Zkuste se jí tedy zeptat, co je "spoura".

Odpovědět


Re: Re: Re: Re:

Michal Zvedavý,2023-03-17 17:18:35

Áno, otázka znie, či niečo, čo je svojím spôsobom takto primitívne, by dokázalo niečo dôležité riadiť. Možno tá panika je podobná globálnemu oteplovaniu a roztopeným ľadovcom. Už 30 rokov sa nechcú roztopiť a zatopiť pobrežné mestá ;)

Rozmýšľam, aké parametre na chápanie by musela mať AI, aby sme jej dovolili napr. riadiť elektrickú sieť vrámci celej únie. Asi by musela veľmi dobre chápať príkazy. Dá sa z toho predpokladať, žeby si dala vysvetliť, ak si postaví hlavu?

Alebo vrámci šetrenia nákladov bude veľmi dobre natrénovaná na svoju úlohu (riadenie el.siete), ale v ostatných parametroch bude primitívna?

Odpovědět


Re: Re: Re: Re: Re:

D@1imi1 Hrušk@,2023-03-19 12:27:02

Ne v rámci šetření, spíš není jediný důvod, aby toho uměla víc. Jednoúčelové nástroje zpravidla bývají pro svůj účel nejefektivnější. S narůstajícími funkcemi narůstá těžkopádnost. (Aneb kdo používá zavírací nožík s deseti funkcemi doma v kuchyni?) Člověk v sobě integruje mnoho funkcí, protože každou z nich potřebuje, aby mohl přežít a zplodit potomstvo. AI nic takového nepotřebuje, stará se o ní člověk a má zpravidla jeden jediný úkol, o víc se nestará. Nemá pud sebezáchovy, potřebu autonomie ani touhu po moci. Pokud by nějaká AI začala bojovat proti lidem, buď by to do ní někdo musel cíleně naprogramovat a nebo by šlo o logické rozhodutí při plnění nějakého zadání. To se například stane ve filmu (knize) Já robot - AI má za úkol chránit lidské životy a proto lidem odebere svobodu, aby se nemohli zabíjet ve válkách.

Odpovědět


Re: Re: Re: Re:

Mintaka Earthian,2023-03-19 12:22:49

Pak je tu ještě taková nepříjemná možnost, záměrně se tvářit neschopně v případech, kde o nic moc nejde.

Odpovědět

Ako testovať manipuláciu zo strany AI?

Martin Lukáň,2023-03-17 07:58:38

Zdá sa, že snaha vytvoriť AI podobnú človeku pokračuje celkom úspešne. Čoraz ťažšou bude otázka, do akej miery taký GPT-4 alebo jeho nasledujúce generácie dokáže zmanipulovať naše snahy o testovanie z etického hľadiska. Adaptívnou odpoveďou modelu na testovanie je prejsť testom, hoci AI nepozná v zásade žiaden koncept pravdy ani etiky, ktorý doň nezabudujeme vopred. Tj. dodatočná snaha o testovanie modelu a finetuning na zvládnutie etických testov môže mať presne opačný efekt, z ľudského pohľadu ho tým môžeme naučiť tak efektívne klamať, že to testami nedokážeme odhaliť. Ako jediné naozaj bezpečné riešenie mi príde legislatívne vylúčiť používanie veľkých generatívnych LLM modelov z rozhodovacích procesov bez ohľadu na to, že budú efektívnejšie ako človek, alebo diskriminatívne modely, nad ktorými vieme mať väčšiu kontrolu.

Odpovědět


Diskuze je otevřená pouze 7dní od zvěřejnění příspěvku nebo na povolení redakce








Zásady ochrany osobních údajů webu osel.cz