Kyberútok, jaký tu ještě nebyl: Červ, který využívá generativní inteligenci  
Generativní inteligenci je možné otrávit prostřednictvím toxického textového povelu a přinutit jí tak dělat ošklivé, zlé věci. Třeba s vašimi hesly, daty a dalšími cennostmi online věku. Výzkumníci informační obrany vytvořili červa, kterým lze právě takovým postupem napadnout generativní inteligenci a přimět ji ke špinavostem. V reálném světě takové potvory čekejte tak za dva tři roky. Možná dřív.
Disketa s virem Morris v Muzeu vědy. Kredit: Go Card USA, Wikimedia Commons,
Disketa s virem Morris v Muzeu vědy. Kredit: Go Card USA, Wikimedia Commons,

Bylo to jenom otázkou času. Nabízelo se to. Stejně vám ale nejspíš přejede mráz po zádech, když si o tom přečtete. Počítačový červ zneužil generativní umělou inteligenci. Bylo to záměrně a v přísně kontrolovaném experimentu, ale nemějme iluze. Takové experimenty se zveřejňují jako poslední varování, hlas volajícího na poušti, když doba uzrála a podobné věci lze očekávat na ostro, doslova každým dnem.

 

Ben Nassi. Kredit: B. Nassi.
Ben Nassi. Kredit: B. Nassi.

Ben Nassi z amerického výzkumného centra a absolventského kampusu Cornell Tech a jeho spolupracovníci vytvořili, v izolovaném prostředí vyzkoušeli a zástupcům médií předvedli (zřejmě) prvního počítačového červa, který využívá generativní inteligenci. Takové potvory se podle tvůrců mohou autonomně šířit mezi systémy, třeba tam krást data nebo instalovat malware. Mohly by provádět kyberútoky, jaké svět doposud neviděl.

 

Nassi a jeho kumpáni vytvořili červa, kterého pojmenovali Morris II, jako odkaz na legendárního červa Morris, který vyvolal chaos na internetu v roce 1988. Poté názorně předvedli, že červ může napadnout emailového asistenta s generativní umělou inteligencí, krást data z emailů a rozesílat spam. Prolomili s ním některá zabezpečení u inteligencí ChatGPT a Gemini.

 

Výzkum proběhl v kontrolovaném prostředí a nesměroval na veřejně používané emailové asistenty. Přesto ale vzbudil pozornost. Přichází v době překotného rozvoje inteligencí velkých jazykových modelů LLM, které se intenzivně učí pracovat nejen s textem, ale i s obrázky a videi. V reálném prostředí sice zatím nikdo červa s generativní inteligencí neviděl, ale podle Nassiho a spol. je to jenom otázkou času. Je to reálná hrozba, která je na spadnutí.

Logo. Kredit: Cornell Tech.
Logo. Kredit: Cornell Tech.

 

Vznik uvedeného červa je, přinejmenším pro laika, fascinující. Badatelé využili známé slabiny generativních inteligencí, tedy toho, že je možné je ovlivnit prostřednictvím „toxických“ textových příkazů (promt). Tímto způsobem je možné přinutit generativní inteligenci dělat například scammera a tahat z lidí bankovní informace. Připomíná to memetickou infekci. Nákazu hloupým nápadem. Nebo populistickým politikem.

 

Klíčovým prvkem červa s generativní inteligencí je „útočný sebereplikující se textový povel“ (Adversarial self-replicating prompt), který donutí generativní inteligenci vytvářet další povely pro ni samotnou. Badatelé přitom dokázali inteligenci napadnout červem textovým povelem uvedeného typu a rovněž takovým povelem ukrytým do souboru s obrázkem.

 

Jak říkají Nassi a spol., ekosystémy generativních inteligencí se bouřlivě rozvíjejí. Pracují s nimi mnohé společnosti a usilují o integraci generativních inteligencí do rozmanitého softwaru, včetně chytrých telefonů, automobilů nebo operačních systémů. Nassiho tým předpovídá, že se podobní červi s umělou inteligencí objeví v reálném světě tak do dvou, tří let. Maximálně.

 

Video: ComPromptMized: Unleashing Zero-click Worms that Target GenAI-Powered Applications

 

Literatura

Ars Technica 2. 3. 2024.

ComPromptMized research site.

Datum: 06.03.2024
Tisk článku



Diskuze:

Zlatá doba kamenná

Tomáš Novák,2024-03-08 14:38:12

Možná se paleolit už zase přiblížil...a možná to bude na něco i dobře.

Odpovědět

A je to tady, "já vám to říkal"

Lukáš Fireš,2024-03-07 21:07:03

"AI nepřemýšlí, pouze si pamatuje jaká reakce měla statisticky nejlepší úspěch."

AI zblbnete snadno, když víte jak na to. Je třeba kontrolovat jak vstupy (jak to že ne-člověk může zadávat požadavky/dotazy takové AI?) tak výstupy ("Potvrďte prosím, že opravdu chcete odeslat email tohoto znění...." Nechť uživatel poklepe na svůj chytrý prsten) a hlavně to, co ta AI vůbec smí dělat ("Je mi líto, ale váš dům nepodpálím, ohrozila bych tím váš život a to mi zakazuje první zákon robotikty").

Odpovědět


Re: A je to tady, "já vám to říkal"

Martin Novák2,2024-03-10 09:47:38

Ne-člověk může zadávat cokoliv a systém to vůbec nepozná. Systém vidí že kódy znaků se objevily v bufferu klávesnice.
Máte o tom dětské představy, asi jako Asimov v pravěku výpočetní techniky. Asi 10 let trvalo než se podařilo přinutit AI aby byla aspoň v základech politicky korektní, AI nemá žádné informace o následcích toho co dělá. To by vyžadovalo novou, jinou AI mnohonásobně složitější než ta dnešní která je jen generátor náhodných slov podle statistické analýzy textů předložených k tréninku.

Odpovědět


Re: Re: A je to tady, "já vám to říkal"

Lukáš Fireš,2024-03-11 16:38:57

Kdepak, nemám o tom dětské představy, jen o mne něco předpokládáte.

1. Do toho "bufferu klávesnice" (spíše na vstupní vrstvu AI) to dá nějaký program a ten má nějaká práva. Jinak by mohl jakýkoliv program na vašem počítači vybrat váš účet. A přesně o tom je bezpečnost, práva, anti-viry a podobně.

2. Výstupy AI jsou opět nějak zpracovány, ať už jde o zobrazení obrázku nebo odeslání emailu. Vše se dá nějak kontrolovat a omezovat. Například jako když ve Windows něco instalujete - zobrazí se systémový potvrzovací dialog, který je mnohem těžší hacknout. Banka vám zas pošle potvrzovací SMS nebo chce potvrzení v mobilu (když to zadáte v prohlížeči).

3. Asimov měl alespoň představu o tom, jak pravidla robotiky formulovat. V praxi je to mnohem složitější, vím to moc dobře. Žádný program ani AI nebudou nikdy 100% bezpečné, ale naše práce je chránit i před nečekaným různými "watchdogy", detekčnímy mechanismy, či další AI. Lepší tam ty "pro jistotu" věci dát, než pak litovat.

Odpovědět

Unixový vtip

Pepa Vondrák,2024-03-07 13:42:48

Trochu mi to připomíná vtip o unixovém viru, jak přijde mail s instrukcemi, abyste si smazali deset náhodně zvolených souborů a následně tento mail přeposlali na 10 náhodně zvolených adres ze svého adresáře.

Odpovědět

Fofr

Přemysl Kadlec,2024-03-07 13:03:28

Že přijdou kódy cíleně upravené pro napadání AI jsem čekal, že jeden ze způsobů jak AI napadnout bude narušení generativních algoritmů jsem taky čekal, ale že to přijde tak brzy, to jsem nečekal.

Odpovědět

Tri let? Spis mesicu

Jirka Naxera,2024-03-07 02:31:03

Kdyz ve svem okoli vidim, kolik lidi je schopno bez jakehokoli pochopeni ony "AI asistenty" napojit naprosto kamkoli, tak bych rekl, ze do leta tu mame prvni poradny maler.

Odpovědět


Re: Tri let? Spis mesicu

Marcel Brokát,2024-03-07 11:54:10

A co víc - spousta lidí, to vidím já - začíná jejím výplodům bezmezně věřit.
Na úřadě (jednom menším) o kterém vím, začínají testovat, že by jako mohli modelovat chování občanů a predikovat které pozemky se uvolní aby je mohli spekulativně nakoupit (což tedy nevím jak to úřad může dělat, ale budiž) a taky, že by mohli propojit jednotlivé informace o místních občanech a profilovat je... Jako vyneseno z nějaké porady/ prezentace ... Prý aby byli připraveni a in.... A takhle my tady na Zemi si žijeme.

Odpovědět


Re: Re: Tri let? Spis mesicu

Standa Hořejší,2024-03-07 13:16:07

Nechci "za každou cenu" rozbíjet Vaše iluze, ale je jednoduché za "úřední" zájem skrýt ten soukromý... a úředníci přece potřebují pořád víc (zejména vlastního oběživa), viz změny jejich průměrných platů dejme tomu od r. 2010.

Odpovědět


Re: Re: Re: Tri let? Spis mesicu

Marcel Brokát,2024-03-12 03:40:12

Absolutně nic nerozbíjíte, chápu. Nechtěl jsem úplně spekulovat...

Odpovědět


Re: Re: Tri let? Spis mesicu

Martin Novák2,2024-03-10 09:53:23

Při nějakém testu důvěry lidí v techniku zkoušeli jestli se lidé budou řídit při úniku z hořící budovy podle instrukcí daných robotem i když jsou zjevně špatné. A zjistili že lidé dají přednost špatným instrukcím i v případě že jim bylo předem řečeno že robot je porouchaný a může dávat špatné instrukce.

Odpovědět


Re: Re: Re: Tri let? Spis mesicu

D@1imi1 Hrušk@,2024-03-10 10:25:09

Dají přednost špatným instrukcím před čím? Takhle vytržené z kontextu to moc neříká. Byla tam dobře značená úniková trasa?

Odpovědět


Re: Tri let? Spis mesicu

Daromir Boran,2024-03-07 12:20:06

Akých asistentov napajaju tí ľudia kam?

Odpovědět


Re: Re: Tri let? Spis mesicu

Jirka Naxera,2024-03-07 23:25:53

Treba se nam tu rozmaha takovy nesvar, si nechavat predchroustat korporatni maily (vcetne tech duvernych) od chatgpt, nebo clanky na zpravodajskych webech apod.
Nebo nam tu vznika skupina juniornich programatoru, kteri bez AI uz nezvladnou ani hello world.

Tech prikladu by se naslo...

Odpovědět


Re: Re: Re: Tri let? Spis mesicu

Ladislav Zima,2024-03-08 18:29:16

Mám blízkou zkušenost s těmi e-maily. Marně jsme vysvětloval, že by se před nahrátím měly prolítnout očima, klidně jen studentem na brigádě.

Odpovědět


Diskuze je otevřená pouze 7dní od zvěřejnění příspěvku nebo na povolení redakce








Zásady ochrany osobních údajů webu osel.cz