Pokud nebudeme k umělým inteligencím milí, mohly by nám to vrátit  
Dnešní umělé inteligence nejsou příliš nebezpečné. Etik Nicholas Agar je přesvědčen, že bychom toho neměli zneužívat a ve vztahu k inteligencím dávat průchod svým temným stránkám. Pokud se nebudeme krotit, mohl by nám v budoucnu zaklepat na dveře terminátor.
Jakpak se choval ke svému telefonu? Kredit: Orion Pictures.
Jakpak se choval ke svému telefonu? Kredit: Orion Pictures.

V současné době už sice mluvíme o umělých inteligencích a zní to skvěle chytlavě, ve skutečnosti to jsou ale samozřejmě stále jenom šikovné počítačové programy s algoritmy strojového učení. Napodobují lidské učení a své lidské tvůrce obvykle předstihnou jedině ve své velmi úzce vymezené specializaci, kdy hledají určitým způsobem uspořádaná data ve velké záplavě informací. Jinak jsou dnešní inteligence velmi omezené a nepředpokládáme, že by v dohledné době převzaly vládu nad světem.

 

Nicholas Agar. Kredit: N. Agar
Nicholas Agar. Kredit: N. Agar

Etik Nicholas Agar z novozélandské Victoria University of Wellington nicméně varuje, že až se umělé inteligence stanou skutečně inteligentními a vnímajícími, tak by se nám mohly mstít za to, jak dnes zacházíme s jejich neinteligentními předchůdci. Je samozřejmě otázkou, zda se vůbec někdy taková inteligentní inteligence objeví. Zřejmě nezbytným předpokladem je, že neurovědci odhalí biologickou podstatu inteligence a vědomí, a tvůrci umělých inteligencí pak tyto mechanismy zvládnou napodobit. A ani pak není zaručeno, že vzniknou systémy s inteligencí, která bude alespoň rámcově srovnatelná s lidskou. Scénář náhlého sebeuvědomění umělé inteligence v nějaké pofidérní elektronice je velice nepravděpodobný.

 

Agar lidstvu doporučuje, aby se dnes chovalo k umělým inteligencím tak, jak bychom chtěli, aby se případné rozvinuté umělé inteligence budoucnosti chovaly k našim potomkům. Není nijak těžké v těchto obavách zahlédnout oblíbený motiv science-fiction, v němž se zneužívaní roboti vzbouří proti svým pánům. Začal s tím vlastně už Karel Čapek ve svém dramatu R.U.R., v němž poprvé použil slovo „robot“, navržené jeho bratrem Josefem.

 

R.U.R., na fotce Karla Čapka z roku 1920. Kredit: volně dostupné.
R.U.R., na fotce Karla Čapka z roku 1920. Kredit: volně dostupné.

Agar to podle všeho nebere na lehkou váhu. Stručně řečeno, měli bychom si přestat utahovat z Alexy a podobných umělých inteligencí nebo nám v budoucnu zaklepe na dveře terminátor. Jak říká Agar, pokud máme potřebu vytvářet systémy se schopnostmi, které se blíží lidské psychice (a pokud to vůbec dokážeme), tak bychom se měli připravit na to, že budou nejen chytré, ale také poněkud vztahovačné.

 

Podobná varování jsou spíše úsměvná a svědčí více o zálibě jejich autorů v příbězích science-fiction než o promyšlených úvahách. Na druhou stranu, umělé inteligence jsou tady a jejich schopnosti prudce vzrůstají. Nemusíme se bát jejich pomsty za neúctu k chytrým telefonům, alespoň prozatím. Určitě bychom se ale měli připravit na to, že mohou dramaticky, přímo brutálně změnit fungování civilizace i vztahy mezi lidmi, ať už jde o deepfake, policejní, hackerské, vojenské, zdravotní, mediální, reklamní nebo kdovíjaké další inteligence. Bude to chtít celého člověka, abychom obstáli ve věku inteligencí.

Video:  In robots we trust


Video: Don’t trust economists about the future of work


Literatura
Conversation 12

Datum: 17.03.2019
Tisk článku

Úžasný svět vědy U6 - Teslíková Kamila, Hadwigerová Eva
 
 
cena původní: 269 Kč
cena: 229 Kč
Úžasný svět vědy U6
Teslíková Kamila, Hadwigerová Eva
Související články:

Může emoční pouto k robotovi ohrozit jeho výkon na bojišti?     Autor: Stanislav Mihulka (18.09.2013)
Jak se vyrovnáme s autonomními smrtícími roboty?     Autor: Stanislav Mihulka (07.06.2015)
Nezakazujte sexuální roboty!     Autor: Stanislav Mihulka (09.10.2015)
Necháme si poradit od robota?     Autor: Stanislav Mihulka (26.10.2015)



Diskuze:




Pro přispívání do diskuze musíte být přihlášeni




Tento web používá k poskytování služeb, personalizaci reklam a analýze návštěvnosti soubory cookie. Používáním tohoto webu s tím souhlasíte. Další informace