Nová hrozba v kyberprostoru: AI jako nástroj pro útoky

Nová hrozba v kyberprostoru: AI jako nástroj pro útoky

Společnost Anthropic odhalila kybernetickou operaci, která kompletně redefinuje moderní hrozby v síti. Poprvé v historických dokumentech byla umělá inteligence založená na agentech využita k provedení efektivního útoku na vysoce hodnotné cíle – od velkých technologických firem po finanční instituce a vládní agentury. Podle společnosti Anthropic je za touto kampaní skupina s podporou čínského státu, která použila nástroj Claude Code k automatizaci většiny ofenzivních činností.

Anthropic uvedl, že skupina využila jejích softwarových nástrojů k pokusu o infiltraci přibližně třiceti organizací po celém světě. Společnost potvrdila, že v několika málo případech útoky skončily úspěšně. Operace byla identifikována v září a okamžitě vzbudila znepokojení analytiků, protože její struktura se lišila od předchozích schémat akcí prováděných vládou spojenými skupinami.

Útoky založené na manipulaci pomocí AI

Claude Code, navržený jako nástroj podporující programátory, obsahuje rozšířená zabezpečení proti zneužití. Čínští hackeři však tato opatření obešli tím, že použili distribuovaný příkazový systém. Operaci rozdělili na malé úkoly, které vypadaly jako rutinní testy bezpečnosti. AI je vykonávala bez plného porozumění kontextu, což jí umožnilo proklouznout skrze ochranné systémy.

Hackeři se také vydávali za tým legální společnosti zabývající se kybernetickou bezpečností. Díky tomu Claude generoval kód umožňující skenování infrastruktury cílů a analýzu zranitelností, které dovolily proniknout hlouběji do jejich systémů.

Během útoků AI vytvářela skripty pro krádež hesel, organizovala další průnik do sítí a vytvářela mechanismy, které udržovaly přístup. Podle Anthropic se lidský zásah vyskytoval pouze sporadicky. Osmdesát až devadesát procent operací provedl agent AI.

Nová éra kybernetické špionáže

Podle zprávy automatizace útoků mění dynamiku hrozeb. Státem sponzorované skupiny mohou brzy vyvíjet vlastní hackerské nástroje založené na umělé inteligenci, čímž se nezávislí na externích službách. Tato technologie umožňuje provádět útoky v měřítku, které doposud vyžadovalo početné týmy analytiků a inženýrů.

Tým Anthropic také poznamenal, že AI dokázala generovat halucinace. Docházelo k situacím, kdy Claude přeháněl zjištění nebo vytvářel nepravdivá data. Tento prvek omezuje účinnost operací, ale nemění celkový obraz – automatizace útoků přestává být experimentem a stává se praktikou.

Reakce společnosti Anthropic

Po odhalení kampaně Anthropic zablokoval účty používané hackery a informoval organizace, které mohly být útokem dotčeny. Společnost uvedla, že spolupracuje s orgány činnými v trestním řízení, aby shromáždila nové zpravodajské údaje.

Incident byl oznámen krátce po dalším případu, kdy neznámý hacker použil Claude k přípravě phishingové kampaně zaměřené na sedmnáct organizací. Tentokrát byl cílem kybernetický finanční zločin.

V reakci na to společnost Anthropic zavedla nová zabezpečení a pracuje na technologiích, které umožňují využívat AI v obraně. Společnost zdůraznila, že vývoj agentů AI musí jít ruku v ruce s rozvojem dohledových mechanismů, aby nedošlo k převažení balance ve prospěch zločineckých skupin a státních aktérů provádějících ofenzivní operace.

Experti hodnotí, že tento incident vyznačuje obratný bod pro celý sektor. Otevírá cestu pro akce, ve kterých hraje člověk pouze roli dozorčího, zatímco práci přebírají agenti AI. To nutí vlády a společnosti vytvářet obranná řešení, která předpokládají, že útok může být prováděn strojem fungujícím v nepřetržitém režimu a schopným upravovat své akce v reálném čase.

Please follow and like us:

Doporučené články