Mohly by umělé inteligence zvýšit riziko jaderné války?  
Podle analytiků RAND Corporation moderní technologie, senzory a umělé inteligence nebezpečně oslabují princip vzájemně zaručeného jaderného zničení a minimálního dostatečného jaderného odstrašení.
Jaderný test série Buster-Jangle (1951). Kredit: National Nuclear Security Administration.
Jaderný test série Buster-Jangle (1951). Kredit: National Nuclear Security Administration.

Umělé inteligence hýbou dnešním světem. Stávají se z nich skvělí pomocníci snad v každém ohledu. A také se ukazuje, že slouží jako výborný hromosvod pro všechny naše skryté i méně skrývané obavy. Podle nové zprávy prestižní americké výzkumné instituce RAND Corporation by umělé inteligence mohly destabilizovat křehkou rovnováhu vzájemně zaručeného jaderného odstrašení. Svět by se podle nich mohl přiblížit ke katastrofě.

 

RAND Corporation.
RAND Corporation.

Nejprve trochu kontextu. RAND si zakládá na tom, že je to nezisková a ideologicky neutrální instituce, která si pěstuje prestiž díky v maximální možné míře objektivnímu výzkumu. Sídlí v kalifornské Santa Monice a v dnešní době zaměstnává asi 2 tisícovky odborníků rozmanitých oborů. Pokud jde o výzkum, RAND se zabývá především národní a mezinárodní bezpečností, zahraniční politikou zdravotnictvím, školstvím, zaměstnaností, vědou a výzkumem.


Proč se experti RANDu obávají umělých inteligencí? Jde o to, že prý umělé inteligence v roli zpravodajců s přístupem k mnoha senzorům a open source datům mohou vyhodnotit situaci jaderných zbraní nějaké země jako zranitelnou či zaostávající a přimět příslušnou vládu k drastickým krokům. Další nebezpečí je například v tom, že umělé inteligence nakrmené špatnými či zmanipulovanými daty by mohly přesvědčit velitele k úderu jadernými zbraněmi.


Loni na přelomu května a června uspořádal RAND sérii workshopů na téma hrozeb pokročilých technologií pro mezinárodní bezpečnost, kterých se účastnili experti na jadernou bezpečnost i na umělé inteligence, zástupci vlády i průmyslu. Výstupem workshopů je zmíněná zpráva „Security 2040: How technology, people, and ideas are shaping the future of global security“, která byla zveřejněna v těchto dnech. Počátkem května vyjdou ještě dva další díly této zprávy, které se budou věnovat přežití lidstva ve zrychlené budoucnosti a ohrožení bezpečnosti 3D tiskem.

 

Mobilní odpalovací systém Topol M. Kredit: Vitaly V. Kuzmin / Wikimedia Commons.
Mobilní odpalovací systém Topol M. Kredit: Vitaly V. Kuzmin / Wikimedia Commons.

Pokud by šikovné umělé inteligence intenzivně zlepšily možnost „země A“ cílit na jaderné zbraně „země B“, tak by dostatečně paranoidní vládci „země B“, a o takové není v dnešním světě nouze, mohli podle RANDu dramaticky změnit své úvahy o případných ziscích a ztrátách a upravit své dosavadní strategie. Mohlo by to znamenat velké navýšení jaderného arzenálu, v extrémním případě možná i první úder. I když by prý umělé inteligence jen středně zlepšily schopnost země pátrat po jaderných zbraní protivníka, tak by to mohlo podstatně ohrozit bezpečnost země, která by takovými umělými inteligencemi disponovala.


Například, Severní Korea, Čína a Rusko mají v arzenálech mobilní odpalovací systémy jaderných zbraní, které mohou být ještě ke všemu v tunelech. Podle vyjádření amerického velení mají USA v případě odpálení dejme tomu severokorejské rakety z mobilního systému na reakci méně než 15 minut. Pokud by američtí analytici masově zapojili big data a umělé inteligence, třeba ještě ve spojení s drony vybavenými pokročilými senzory, tak by mohli podobné útoky předpovědět lépe. Severní Korea by tudíž mohla dojít k závěru, že jaderných zbraní potřebuje více. Sofistikovanější protivníci by zase mohli vsadit na autonomní a více skryté, tudíž více rizikové jaderné zbraně.

 

Sofistikovaný výzvědný dron RQ-4 Global Hawk. Kredit: 	U.S. Air Force / Bobbi Zapka.
Sofistikovaný výzvědný dron RQ-4 Global Hawk. Kredit: U.S. Air Force / Bobbi Zapka.

Podle expertů RANDu je v dnešní době technologicky nesmírně obtížné spolehlivě lokalizovat a zacílit všechny jaderné systémy protivníka. Pokud se to ale někomu podaří, získá tím nepopiratelnou strategickou výhodu. A jak to ve světě mezinárodní politiky chodí, tak by stačilo, kdyby si to o někom protivníci mysleli, i když by to ještě nebyla tak úplně pravda.


Workshopy vlastně poukázaly na to, že umělé inteligence mohou být velmi dvojsečnou zbraní. Zlepší obranu, zlepší útok, mohou významně vylepšit rozhodování odpovědných velitelů v případě krize. Otázkou ale je, jak zareagují protivníci. Mohou mít vlastní umělé inteligence, mohou se snažit takové systémy hacknout či nějak zneužít, anebo se prohloubí jejich paranoia.


V této souvislosti američtí vojenští vývojáři DARPA spustili projekt Media Forensic (MediFor), který se zabývá manipulacemi médií i dat a vývoj nástrojů, s nimiž by bylo možné takovým manipulacím čelit. O toto téma se také velmi zajímá americká CIA a další zpravodajské složky. Pokud by totiž umělé inteligence dostávaly podvržená data, byl by to velký problém. Experti zdůrazňují, že je nutné lépe chápat záměry všech zúčastněných a dávat si velký pozor na případy, kdy se některý protivník může pokoušet zneužívat sofistikované zpravodajské nástroje proti jejich majitelům. Jinými slovy a stručně, fake news plus umělé inteligence by se mohly stát receptem na válku. Vývojáři to vše budou muset vzít v potaz.

První díl zprávy RAND Corporation si je možné stáhnout zde.

Video: How Might Artificial Intelligence Affect Nuclear Stability?


Video: Overcoming the Threats of Our Strategic Competitors


Literatura
Defense One 24. 4. 2018.

Datum: 25.04.2018
Tisk článku

Související články:

Způsobí lokální jaderná válka konec civilizace?     Autor: Stanislav Mihulka (15.12.2013)
Hawking rozvířil obavy o umělou inteligenci     Autor: Stanislav Mihulka (06.12.2014)
Americká armáda shání miniatomovky pro jaderné odstrašení v 21. století     Autor: Stanislav Mihulka (09.08.2017)
Status-6: Mezikontinentální jaderný torpédový dron nebo laciný hoax?     Autor: Stanislav Mihulka (05.02.2018)



Diskuze:


Diskuze je otevřená pouze 7dní od zvěřejnění příspěvku nebo na povolení redakce








Zásady ochrany osobních údajů webu osel.cz