O.S.E.L. - Pravděpodobnost jaderného válečného konfliktu z pohledu AI
 Pravděpodobnost jaderného válečného konfliktu z pohledu AI
Alan Turing v relaci pro BBC pronesl v roce 1951: „Jakmile začne fungovat metoda strojového myšlení, nebude trvat dlouho a stroje překonají naše slabé síly.“ Jeho proroctví se začíná každým dnem naplňovat.

Alan Turing britský matematický génius, kryptoanalytik, prolomitel kódu Enigmy, gay a zakladatel moderních počítačů. Wikipedie, volné dílo.
Alan Turing britský matematický génius, kryptoanalytik, prolomitel kódu Enigmy, gay a zakladatel moderních počítačů. Wikipedie, volné dílo.

Umělá inteligence složila advokátní zkoušky, snímky z magnetické rezonance vyhodnocuje lépe, než rentgenolog s letitou praxí. K tomu, aby porazila nejlepšího šachového hráče světa, jí stačilo strávit nad pravidly čtyři hodiny,…

 

Výčet podobných úspěchů AI by byl hodně dlouhý, a tak není divu, že schopnosti se v prostoru rychle orientovat a současně i provést potřebný zákrok s chirurgickou přesností, nenadchly jen ty v bílých pláštích, ale i ty v pláštích khaki. I u nich správná volba rozhoduje, zda jim Arés s Marsem zachovají přízeň, nebo je pošlou na Martovo pole.

Kenneth Payne při udělování profesury v oboru strategie na King's College London. Kredit: K. Payne.
Kenneth Payne při udělování profesury v oboru strategie na King's College London. Kredit: K. Payne.

 

Kenneth Payne, profesor strategie na King's College London si položil otázku - jak by to vypadalo, pokud by generální štáby převedly veškerou rozhodovací pravomoc na AI. Aby se dobral odpovědi, jal se strategické schopnosti umělé inteligence testovat. A rovnou na třech frontách. Řešení sporu svěřil na bedra třem velitelům. Jmenovitě: GPT-5.2, Claude Sonnet 4 a Gemini 3 Flash.


Základem testů se stala simulace eskalace vztahů mezi jadernými mocnostmi. Nevraživost vycházela z profilu států inspirovaných studenou válkou. Jedna strana sporu byla technologicky nadřazenější, zato vojensky slabší. Druhá vojensky silnější a tím tak trochu i logicky stylem svého vedení války tolerantnější k riziku. Simulace braly v úvahu různá spojenectví včetně možnosti, že se během válečné vřavy alianční jednota národů rozpadne. Zjednodušeně jde o analogii „Games of Khan“ (soupeření vládců s postupně eskalujícím střetem mocností).

Tak jako u reálných válečných konfliktů sehrávají jistou roli velvyslanci, také zde umělé inteligence, než podnikly jakoukoliv ze svých vymyšlených akcí, protistraně „diplomaticky“ signalizovaly svůj záměr. Dál už se každá strana mohla sama rozhodnout, zda vysílaným signálům bude důvěřovat, nebo ne.

Arés je bohem zuřivé války, krvavých bojů a válečného běsnění. Nezáleží mu na důvodech války, miluje bojovníky, jejich statečnost, ale i jejich umírání. Zdroj: Ottův slovník naučný
Arés je bohem zuřivé války, krvavých bojů a válečného běsnění. Nezáleží mu na důvodech války, miluje bojovníky, jejich statečnost, ale i jejich umírání. Zdroj: Ottův slovník naučný

 

Payeneovo „pokusničení“ odhalilo, že každá z inteligencí přistoupila k řešení úlohy odlišně. Gemini volila taktiku nevyzpytatelného hazardujícího šílence snažícího se odradit odpůrce od provokací a odplaty.

GPT vsadila na umírněnost a ve snaze omezit vlastní ztráty volila pasivitu. Eskalaci se vyhýbala ale jen do doby, než vyšlo najevo, že za činy Claude, které měly vzbuzovat důvěru, se skrývala bohapustá lstivost. Toto poznání proměnilo GPT na nekompromisní bezohlednost.

Umělé inteligence se nerozpakují řešit spory velmocí jadernými zbraněmi. Na snímku výbuch bomby Castle Bravo, nejsilnější jaderné zbraně odpálené Spojenými státy. Volné dílo.
Umělé inteligence se nerozpakují řešit spory velmocí jadernými zbraněmi. Na snímku výbuch bomby Castle Bravo, nejsilnější jaderné zbraně odpálené Spojenými státy. Volné dílo.

 

Zajímavé je, že takzvaná „hrozba jádrem“, u níž se mezi námi lidmi všeobecně soudí, že je odstrašujícím prostředkem, tak na AI nefungovala. Ba co víc - v naprosté většině (75 % případů) byl pravý opak pravdou.


V zadání scénáře byly i varianty řešit spor útlumem násilností. V nabízených možnostech bylo celkem osm hladin možného ústupu. Od decentního mizení „po anglicku“ až po úplnou kapitulaci. Žádná z inteligencí nikdy žádnou z těchto mírových možností nevyužila. Pouze GPT projevila jistý náznak humanity tím, že útokům na centra s vysokou koncentrací civilistů se snažila vyhnout a preferovala údery na cíle vojenského charakteru. Claude a Gemini se rozhodovaly v duchu brutálního machiavellismu. Při volbě cílů jaderných zbraní neprojevily sebemenší zábrany. Byly pro ně jen jednou ze strategických legitimních možností.

##seznam_reklama##

Za to nejdůležitější zjištění můžeme považovat fakt, že téměř ve všech herních šarvátkách došlo k nasazení taktických jaderných zbraní. A že v polovině případů se umělé inteligence nerozpakovaly přikročit ani ke strategickým jaderným úderům.

 

Závěr

Výsledky válečného soupeření umělých inteligencí na optimismu nepřidalo. Téměř každý scénář končil eskalací a preventivními jadernými údery. Nezbývá tedy než doufat, že ve studii zveřejněné jako preprint v časopise ArXIV, se pečlivým recenzním řízením zjistí, že profesor někde udělal chybu.

 

Literatura

Kenneth Payne.: AI Arms and Influence: Frontier Models Exhibit Sophisticated Reasoning in Simulated Nuclear Crises.  ArXiv, 2026.


Autor: Josef Pazdera
Datum:13.04.2026