Umělá inteligence si našla cestu do celé řady odvětví, od průmyslu přes zdravotnictví až po kulturu. Možná proto bylo jen otázkou času, než ji začnou zneužívat i kybernetičtí útočníci. O hrozbě AI a možnostech jejího využití „světlou“ i „temnou“ stranou jsme se bavili s expertem na umělou inteligenci Lukášem Grossem a odbornicí na kyberbezpečnost Lucií Jahnovou.
Začneme zeširoka – umělá inteligence a kybernetická bezpečnost. Jak spolu tyto dvě oblasti souvisí?
LJ: Souvislost je už jen v tom, že AI existuje, je tu s námi a my se na tento fakt musíme adaptovat ve všech oblastech – tedy včetně kybernetické bezpečnosti. Nástup AI je revoluce na úrovni příchodu internetu nebo spalovacích motorů, a zanedlouho už bude pevnou součástí všech procesů v celé řadě oblastí. I kybernetická bezpečnost tak musí najít způsob, jak se s nástupem AI vypořádat. Zde ovšem platí, že jako první si k ní našla cestu ona pomyslná temná strana v podobě kybernetických útočníků. Světlá strana, tedy odborníci na kyberbezpečnost, tak ‚jenom‘ reagují.
Zmínila jsi pomyslnou temnou stranu. Kdo vlastně jsou kybernetičtí útočníci – jsou to spíše jednotlivci, nebo organizace?
LJ: Obecně řečeno tu jsou obě tyto varianty. Samozřejmě platí, že oboje cílí na trochu jiné spektrum cílů nebo dotčených stran – zatímco organizace, skupiny či týmy provádějí útoky ve větším měřítku, tak jedinci zkoušející štěstí vůči jiným jedincům či malým firmám. Nelze proto jednoznačně říci, že se jedná jenom o spolky nebo jenom jedince, protože to vždy byla a bude kombinace obojího.
Jaká je vlastně motivace k těmto útokům? Jde pouze o peníze, nebo v tom může být i něco většího?
LJ: Zejména u jedinců to nutně nemusí být jenom o penězích. Řekla bych, že zde je motivací vyzkoušet své možnosti a vidět, jak daleko až můžu zajít sám za sebe. U skupin pak mluvíme spíše o nějakém geopolitickém dopadu. Vždy se samozřejmě najde skupina hackerů, která se prostřednictvím ransomware či jiné metody snaží vysloveně z firem získat peníze. Pokud se ale bavíme o větších útocích, u nich je dopad opravdu spíše geopolitický než finanční.
LG: Já bych k tomu jen dodal, že kybernetická nebezpečnost podle mého nespočívá jen v tom, že se nějaký hacker ‚nabourá‘ do mé firmy, paralyzuje mě a řekne si o milion dolarů. Může to mít i jiné následky – například někdo mým dětem pošle deepfake video, kde je mým hlasem tváří přesvědčí, aby šly na roh ulice a tam na mě počkaly. Pak už jen stačí, aby přijelo auto a děti uneslo. To je jeden, individuální úhel pohledu. A pak je tu druhý, politický, kdy zejména před různými volbami létají prostorem videa natočená pomocí umělé inteligence s potenciálem výrazně měnit politickou atmosféru.
Známe tedy útočníka a víme, že v jejich repertoáru je i využití umělé inteligence. Nabízí se proto logická otázka – jakými způsoby kybernetičtí zločinci AI nasazují?
LJ: Zejména v souvislosti s covidem se hodně rozmohly phishingové útoky, které jsou dnes už velmi často generovány s pomocí AI. Výsledný phishing je nejen velmi dobře přizpůsobený příjemci, ale už také dávno padla překážka v podobě jazykových odlišností – už dávno neplatí, že phishing spolehlivě poznáte podle nekvalitního jazyka.
Významnou oblastí tu pak jsou i avataři, kdy útočníci na komunikačních platformách napodobují běžné uživatele. Zde mohou zločinci přimět oběti k nějakému konkrétnímu jednání, kdy útočník například vystupuje jako finanční ředitel firmy a zadává podřízeným úkoly s cílem vyvést z firmy velký obnos peněz. Zejména tato oblast je v poslední době na vzestupu a lidé to mají tendenci podceňovat, protože si nepřipouští, že by se to mohlo stát právě jim.
Co je podle tebe na tomto využití AI největším rizikem?
LJ: Asi obtížnost odhalení. Vždy tu budou skupiny či jednotlivci vytvářející ransomware, malware či jiný škodlivý kód. Silně ale pochybuji o tom, že se o nich bude široce psát v médiích, protože ve velké části případů se na to ani včas nepřijde. A když přeci jen, tak prakticky nejde zjistit, zda k tomu daný útočník použil umělou inteligenci. Je zde otázkou, do jaké míry je vůbec možné zjistit, zda daný kybernetický útok proběhl či neproběhl s využitím umělé inteligence. To bychom s jistotou věděli jen tehdy, když by to daná skupina či jednotlivec sami přiznali.
Umělá inteligence „pouze“ usnadňuje stávající metody kybernetických útoků, nebo umožnila vytvoření zcela nových?
LJ: AI především útoky výrazně zrychluje a rozšiřuje, protože útočníkům umožňuje zasáhnout výrazně více cílů za stejný čas. Zároveň umělá inteligence útoky zkvalitňuje – setkáváme se například se stále hůře rozpoznatelným phishingem, který je pro běžného uživatele daleko hůře detekovatelný než dosavadní útoky. Například před covidovou pandemií se šířily poměrně jednoduše poznatelné phishingové útoky psané velmi nekvalitně přeloženou češtinou – s těmito útoky jsme se dokázali poměrně dobře vypořádat skrze vzdělávání zaměstnanců. Po nástupu umělé inteligence už ale tyto překážky pro útočníky padají, protože AI se dokáže z předchozích útoků učit a metody narušení neustále zkvalitňovat.
LG: Zde hrají roli dva velmi důležité aspekty. Tím prvním je personifikace, kdy kyberútočník mluví stejnou řečí jako oběť, jeho jednání má stejný sentiment jako oběť a zneužívá její korespondenci či sociální sítě. Cokoliv, co útočník zachytí ve veřejném prostoru, může být použito proti oběti. Tento útok je velmi těžko odhalitelný, na druhou stranu se ale personifikaci snažíme využívat i na ‚světlé straně‘.
Co se pak týká malwaru, tak platí, že stejně jako my se na základě získaných dat učíme zachytávat útoky, tak útočníci se ze zachycených útoků poučují a vytvářejí stále obtížněji zjistitelné metody. Je to takový krysí závod, kdy útočníci jsou vždy o kousek před námi.
Využívají útočníci specializované nástroje, nebo zneužívají běžně dostupné služby jako například ChatGPT?
LG: ChatGPT je především nástroj, jazykový model využívající umělou inteligenci. Obrazně řečeno s ním lidé konají dobro i zlo a nemůžeme říct, že by to byla vina samotného ChatGPT. Největším problémem ale je stále snadnější dostupnost. Příprava na hromadný a masivní kybernetický útok nyní trvá zlomek času a útočníci k ní potřebují zlomek lidí.
LJ: To, jak použijeme ChatGPT a na co jej použijeme, je pouze zodpovědnost samotných uživatelů. Určitě proto souhlasím s tím, že pokud někdo použije ChatGPT negativně, není to vina samotné služby. I tato umělá inteligence je pořád pod kontrolou lidí a jen my určujeme, k čemu ji využijeme. Zrovna nedávno jsem byla na jedné konferenci o AI a padl tam zajímavý dotaz, zda se z výstupů AI nevytrácí lidskost. Zde je důležité říct, že my můžeme do AI lidskost ‚vkládat‘ tím, že rozšiřujeme objem dat, na kterých se umělá inteligence učí. Pak závisí na tom, do jaké míry budeme onu lidskost akcentovat a do jaké míry se spokojíme s tím, co nám AI předloží. Vždy a všude bychom totiž měli výstupy AI ověřovat.
Takže je možné, aby útočníci umělou inteligenci „ohnuli“ pro své potřeby?
LG: Zajímavým způsobem by mohl být například pokus ovlivňovat jazykové modely, jako je například právě ChatGPT. Pomocí této manipulace pak bude umělá inteligence poskytovat uživateli špatné odpovědi a ten ani nebude vědět, že je pod hackerským útokem. Je to klasická injektáž, tedy když jazykovému modelu ‚podsuneme‘ chybné informace, na základě kterých se onen jazykový model učí a generuje odpovědi.
Obecný úvod máme za sebou, přesuneme se do roviny praxe. Dokázali byste popsat, jak takový kybernetický útok za použití umělé inteligence probíhá?
LJ: Například už jsme zaznamenali případ, kdy řadový zaměstnanec firmy obdržel hovor z účtu svého nadřízeného. Ten hovor byl namluven hlasem dotyčného a předal zaměstnanci určité pokyny – například k převodu peněžní částky na určený účet. K takovému zneužití avatara může dojít na různých běžně používaných platformách – Teams, Zoom, Skype a podobně. Cílem útočníka mohou být jak peníze, tak například i zjištění citlivých informací za účelem průmyslové špionáže. Vzhledem k zákeřnosti a obtížné zjistitelnosti pak může jít o efektivní nástroj – zejména v dnešní pocovidové době, kdy se online schůzky staly pro mnoho firem samozřejmostí.
Existuje tedy nějaký způsob, jak může řadový zaměstnanec rozpoznat falešného avatara?
LJ: Tady závisí na tom, o jak sofistikovaný útok se jedná. Méně zručné útočníky může prozradit například zvláštní IP adresa mimo obvyklý okruh adres, případně cizí externí účet. Umělou inteligenci maskující se za uživatele pak lze odhalit například i tím, že pravidla schůzky budou vyžadovat zapnuté kamery.
Jak se mohou firmy před tímto druhem útoku chránit?
LJ: Zde je klíčové zavést a dodržovat bezpečnostní pravidla. Pokud je to možné, měly by firmy všechny důležité schůzky pořádat osobně – zde samozřejmě nastávají komplikace, pokud má společnost více poboček v různých lokacích. Samozřejmostí by měly být zašifrované komunikační kanály a také ověřování přístupů ke schůzkám. Rozhodně by neměl stačit prostý odkaz na schůzku, ten byl měl být doplněn autorizací. Ne všechny schůzky je ale třeba takto důkladně zabezpečovat; pokud si například útočník na schůzce vyslechne, že jsou propláceny faktury po splatnosti, nejde o nijak škodlivé informace. Firmy by proto měly být schopny své informace klasifikovat podle citlivosti, a na schůzkách týkajících se těch nejcitlivějších zavést bezpečnostní opatření.
LG: Nějakých 65 % úspěchu zde spočívá v edukaci koncových uživatelů. Právě oni totiž stojí v první linii a pokud budou umět útočníka rozpoznat, mohou zastavit řadu útoků už v zárodku. S tím se pojí i zdravá dávka kritického myšlení. dnešní době už je prostě třeba počítat s tím, že nám budou chodit podvodné e-maily, že na sociálních sítích bude přibývat deepfake videí politiků a celebrit, případně že nám zavolá uměle znějící hlas. Pokud nad všemi alespoň trochu podezřelými kontakty budeme kriticky přemýšlet, výrazně útočníkům práci ztížíme.
Na co se můžete těšit příště?
Jak vyplývá z výše uvedeného, představuje zneužití umělé inteligence vážnou hrozbu pro vaši kybernetickou bezpečnost. Umělou inteligenci lze ale úspěšně využít i pro obranu před kyberzločinci – a právě na toto téma se zaměříme v druhé části rozhovoru, kterou již brzy naleznete na blogu Seyforu. Dozvíte se tam nejen o možném obranném využití AI, ale také o pohledu legislativy a výhledu do budoucna.