Autonomní bojový dron zřejmě poprvé zaútočil na lidi bez povelu člověka  
Zhruba před rokem došlo během konfliktu v Libyi k autonomním útokům tureckých sebevražedných dronů STM Kargu na jednotky Chalífy Haftara. Podle všeho měla po celou dobu velení umělá inteligence. Zároveň ale není jasné, zda při takových útocích někdo zahynul či nikoliv, i když se to nedá vyloučit.
Sebevražedný dron STM Kargu. Kredit: STM.
Sebevražedný dron STM Kargu. Kredit: STM.

Umělé inteligence a autonomní drony stále víří emoce a obavy. Podle řady vyjádření je to sice často kvůli sci-fi thrillerům, ale bez ohledu na terminátory, technologický vývoj stále běží a podobné diskuze rozhodně jen tak neutichnou. Olej do ohně přilila událost, ke které sice došlo už v březnu 2020, ale na světlo vyplavala až v těchto dnech.

 

 

Podle nedávno zveřejněné zprávy OSN mělo v březnu 2020 během složitého konfliktu v Libyi dojít k tomu, že autonomní dron zaútočil na lidský cíl. To by samo o sobě nemělo být moc divné ani pohoršující, k tomu dochází prakticky denně. Problém je v tom, že povel k útoku dala samotná umělá inteligence dronu a nikoliv lidský operátor.

Kargu jako snadno přenosný dronový systém. Kredit: STM.
Kargu jako snadno přenosný dronový systém. Kredit: STM.

 

Je to samozřejmě tak trochu hra se slovy, protože dotyčnou umělou inteligenci rovněž vytvořili lidé a jde o pouhý nástroj. Nicméně, mnozí to vnímají jako zásadní zlom. Až doposud všechny armády a provozovatelé bojových dronů ujišťovali veřejnost, že v případě cílených útoků na lidi je vždy nutný bezprostřední souhlas či povel člověka. Od této chvíle to již podle všeho neplatí.

 

Podle zmíněné zprávy mezinárodně uznávaný libyjský premiér Fayez al-Sarraj spustil 27. března 2020 operaci Peace Storm, která zahrnovala útoky autonomních dronů proti jednotkám Chalífy Haftara. Na Haftarovy konvoje pak útočily autonomní systémy jako je turecký sebevražedný dron STM Kargu s pokročilou umělou inteligencí. Podle dostupných informací byly tyto drony naprogramovány, aby vyhledávaly cíle a pak na ně útočily, aniž by se do věci vložil lidský operátor. K takovým útoků opravdu došlo a je to zřejmě poprvé, kdy dron útočil na člověka po rozhodnutí umělé inteligence. Navzdory sebevědomým zpravodajským headlinům ale není jasné, zda při těchto útocích někdo zahynul či nikoliv.

 

Kargu je sofistikovaná kvadrikoptéra, která byla vyvinuta pro asymetrické válčení a protiteroristické operace. Podle výrobce STM (Savunma Teknolojileri Mühendislik) je efektivní proti statickým i pohyblivým cílům, přičemž využívá zpracování obrazu v reálném čase a pokročilou umělou inteligenci.

STM Kargu v terénu. Kredit: STM.
STM Kargu v terénu. Kredit: STM.

 

Dosavadní zkušenosti ukazují, že Kargu je účinné proti pěchotě. Vojenské jednotky dnes obvykle nejsou cvičené reagovat na podobné útoky. Po útoku Kargu nebo podobných sebevražedných dronů obvykle následuje chaotický ústup či úprk. Drony přitom mohou neustále napadat ustupující jednotky a zvyšovat jejich ztráty. V Libyi se to podle všeho osvědčilo, stejně jako útoky Kargu na Haftarovy protiletecké systémy Pantsir S-1 ruské provenience.

 

Human Rights Watch a podobné organizace vyjadřují velké znepokojení a pochyby, že plně autonomní bojové drony dodržují mezinárodně uznávané humanitární standardy. Proto Human Rights Watch vyzývá k preventivnímu zákazu vývoje, výroby a používání plně autonomních dronů. Takové výzvy ale za současné situace jen těžko padnou na úrodnou půdu.

 

Cynik by dodal, že je naopak klidně možné, že vhodně naprogramovaná umělá inteligence bude dodržovat humanitární standardy mnohem lépe, než průměrný lidský bojovník jednotek zúčastněných v libyjském konfliktu, odkud často přicházejí zprávy o různých zvěrstvech. Smysluplnější jsou námitky proti nedokonalé AI smrtících dronů, díky čemuž může docházet k fatálním chybám. To je ale problém spíše technického rázu, který je možné řešit dalším vývojem dronových inteligencí.

 

Video: STM KARGU (Autonomous Tactical Multi-Rotor Attack UAV)

 

Literatura

IFL Science 31. 5. 2021.

Datum: 03.06.2021
Tisk článku


Diskuze:

Pavol Hudák,2021-06-04 09:53:16

Koniec ludstva sa nezadrzatelne blizi.

Odpovědět

Problém je v (ne)zodpovědnosti, ne v AI

Lukáš Fireš,2021-06-03 17:01:43

Ten problém vážně není ani tak v (ne)dokonalosti té či oné AI, ale v NAŠÍ DŮVĚŘE V NÍ. Ten dron nejspíše dostal "jasný" rozkaz, něco ve stylu "pokud uvidíš jednu z těchto tváří / či jen zbraň v ruce, zabij!". Ten příkaz dává smysl, nám lidem, ale ne tomu stroji, pro něj je to jen soustava vstupů, to my doufáme, že udělá co chceme... a už dávno to neumíme zajistit, jen máme místo doufání nějaké testy a statistický model... s pravděpodobností XY% to udělá, co chceme. S pravděpodobností AB% známe správné XY... a lidé mají tendenci se tím nechat uchlácholit... dokud... dokud......

Odpovědět


Re: Problém je v (ne)zodpovědnosti, ne v AI

Pavol Hudák,2021-06-04 09:57:25

Nie, problem je hlavne automatizacia zabijania. Dnes ked chces niekoho zabit, musis tam fyzicky niekoho poslat. Ked chces zabit vela ludi, musis tam poslat vela vykonavatelov.
V buducnosti, ako vidime nie moc vzdialenej, si utocnik(stat, terorista...) v tovarni navyraba miliony dronov, naprogramuje podla akeho kluca maju zabijat a moze ist spokojne spat. Ked sa zobudi bude hotovo.

Odpovědět


Re: Re: Problém je v (ne)zodpovědnosti, ne v AI

Michal Kováčik,2021-06-04 14:05:32

Ono tí vykonávatelia sú z pohľadu veliteľa to isté čo drony; ak sú to žoldnieri, tak je to v zásade podobný druh nákladov. Akurát že drony môžu byť oveľa "samovražednejšie" než by boli živí vojaci.

V strete dvoch technicky vyspelých protivníkov to môže byť dokonca prospešné, že sa budú navzájom otĺkať stroje a neumrie pri tom toľko ľudí. Problém je v medziobdobí, ako napr. pri ostatnej vojne Azerbajdžanu a Arménska, kde Arméni nemohli nejako dobre čeliť náporu tureckých dronov.

Odpovědět


Re: Re: Problém je v (ne)zodpovědnosti, ne v AI

Jarda Ticháček,2021-06-05 21:34:40

Víte, ono to zabíjení bylo automatizované od prvopočátku. Už naši dávní předkové, v dobách kdy vypadali jako myši, zabíjeli bez nějakého přemýšlení o morálce. A v případě už nám podobných lidí to platilo stále. Buď bojujete, nebo ne. A když bojujete, je vaším jediným zájmem ten boj přežít. Nejen dnes, ale i v budoucnu. Takže zabijete každého, kdo chce zabít vás. Zabijete. Protože musíte vyloučit možnost, že ten chlap, kterému jen useknete ruku s mečem vás za rok někde podřízne (protože k tomu má sakra důvod), nebo vám za dva roky zabije syna, kvůli kterému vlastně zabíjíte.
To byl důvod, proč se likvidovaly celé poražené rody. To nebyl sadismus, ale rozumná úvaha. Z toho děťátka mohl vyrůst velmi motivovaný mstitel.
Pak přišla doba, kdy se války změnily. Ale tam změna nebyla ve vlastním průběhu boje, ale v lidé, kteří bojovali. Ti lidé, kteří války vedli už posílali bojovat někoho jiného. Ale ten někdo jiný řešil stejný aktuální problém. Jak zůstat naživu. A měl jedinou cestu. Zabít ty, kteří se mu v tom snažili zabránit. Protože měli stejnou motivaci. A stále tam byla ta motivace těch, kteří ten boj začali. Chci, aby co nejvíce mých lidí přežilo.
A jednoho dne se do toho zapletly požadavky fair play. Jenže sportovní duch nemá ve válce co pohledávat. Válka probíhá taky že potřebujete někoho zlikvidovat. Nejlépe taky abyste neměl vlastní ztráty. V tomto ta umělá inteligence vlastně pokračuje.
Když se nad tím zamyslíte, taková AI je vlastně to samé, jako nástražný systém, nebo minové pole, nebo jakákoliv jiná past. Člověk který zná heslo, cestu, plán minového pole, nebo ví, kde je přez stezku provaz projde, nezasvěcený, v tomto případě nepřítel, má problém. A požadavek na někoho živého, kdo dá nějakému dronu mpříkaz k akci je vlastně že stejné kategorie, jako požadavek, aby u minového pole stal chlap s dálkovým ovladačem.

Odpovědět

otočení klíčku

Milan Vnouček,2021-06-03 10:23:52

Mno pokud chcete vyhubit lidstvo počítačovým útokem tak máte smůlu.. Uděláte sice velký bordel, zabijete docela dost lidí, ale jakmile rozpotáte ten chaos tak sítě, po kterých útočíte tak zkolabují. Další bordel už nevyrobíte. Pro efektivní vyhlazení lidí musíte umět otočit dvěma klíčkama ve vzdálenosti větší než 2 metry a to naráz a na více místech současně.

Odpovědět

Na co je to dobre?

Peter Somatz,2021-06-03 09:29:34

"Zároveň ale není jasné, zda při takových útocích někdo zahynul či nikoliv, i když se to nedá vyloučit". Je mozne, ze dron utocil len slovne: https://9gag.com/gag/apNbmQ5

Ucinnost takejto lietajucej bomby bude asi dost mala. Ked bude vojak pocut bzucanie, otvori dazdnik s matucim vzorom a je vybavene. Casom urcite pribudne zodpovedajuca protizbran. Napr. roboticky pes ako je v tom 9gag videu s kanonom na chrbte, ktory bude automaticky zostrelovat prilietajuce drony.

Odpovědět

Nebezpečí

Jaroslav P.,2021-06-03 08:11:51

Budu trochu fantazírovat. Dejme tomu, že spolu s námi v galaxii je jiná civilizace a ta nás chtce dobýt, ale vzdálennosti jsou veliké a flotilu lodí sem jen tak nepošle. Jediný způsob jak by nás mohli lehce dobýt je využít naši technickou vyspělost proti nám samým. Někde ve sluneční soustavě můžou vybudovat skrytou automatickou továrnu, která vyrobí drony pro invazi. Až budou mít dostatečný počet invazních dronů, tak si jen počkají, až naše sítě komunikačních satelitů a počet autonomních dronů na Zemi bude dostatečně velký a začnou invazi. Pomocí svých dronů ovládnou satelitní síť a tu spolu se svými drony použijí na ovládnutí počítačových sítí, našich dronů a na koordinaci celého útoku. Tímto způsobem by nás dobyli během pár dnů. Takže pokud nás objevila taková civilizace, tak se pomalu blíží kritická doba, kdy by bylo pro ně vhodné na nás zaútočit.

Odpovědět


Re: Nebezpečí

Jan Novák9,2021-06-03 09:16:40

Není potřeba čekat na mimozemšťany, za tím účelem si vyvíjíme bojové AI :-)

Odpovědět


Diskuze je otevřená pouze 7dní od zvěřejnění příspěvku nebo na povolení redakce








Zásady ochrany osobních údajů webu osel.cz