Gadiem ilgi kiberdrošības eksperti brīdināja, ka mākslīgais intelekts galu galā palīdzēs hakeriem atklāt programmatūras trūkumus ātrāk, nekā cilvēki tos spēs apturēt. Lielākā daļa šo brīdinājumu bija ietverti pētnieciskajos rakstos, slēgtās izlūkošanas instruktāžās un teorētiskās debatēs Silīcija ielejā.
Šonedēļ tas mainījās.
Google saka, ka ir identificējis pirmo zināmo gadījumu, kad hakeri izmanto AI, lai palīdzētu atklāt un izmantot iepriekš nezināmu programmatūras ievainojamību masu kiberuzbrukuma mēģinājumā. Uzņēmums paziņoja, ka bloķējis izmantošanu, pirms tas varēja plaši izplatīties, lai gan atklājums iezīmē vēsu pagrieziena punktu kiberkara attīstībā.
“Pirmo reizi GTIG ir identificējis apdraudējuma dalībnieku, izmantojot nulles dienas izmantošanu, kas, mūsuprāt, tika izstrādāta ar AI,” savā Google Threat Intelligence Group (GTIG) lapā rakstīja Google. “Noziedzīgo draudu dalībnieks plānoja to izmantot masveida izmantošanas pasākumā, taču mūsu proaktīvais pretatklājums, iespējams, ir aizkavējis tā izmantošanu.”
Sekas sniedzas daudz tālāk par vienu hakeru kampaņu.
AI sistēmas vairs nav tikai pikšķerēšanas e-pasta ziņojumu rakstīšana vai surogātpasta ģenerēšana. Saskaņā ar Google un citu drošības pētnieku teikto, mākslīgais intelekts sāk piedalīties dažās no bīstamākajām aizskarošu kiberoperāciju daļām: slēpto programmatūras trūkumu identificēšanā, izmantošanas ķēžu veidošanā, izlūkošanas automatizācijā un uzbrukumu paātrināšanā tādā ātrumā, kādu cilvēku komandas cenšas saskaņot.
Kiberdrošības nozare ir pavadījusi vairākus gadus, gatavojoties šim brīdim. Tagad šķiet, ka tas ir pienācis.
Kiberdrošības maiņas brīdis
Jaunākie Google atklājumi nonāk tikai dažus mēnešus pēc vairākām arvien satraucošākām atklāsmēm no Anthropic par AI pieaugošo lomu kiberuzbrukumos.
2025. gada novembrī Anthropic atklāja, ka ir izjaucis to, ko tā raksturoja kā ļoti sarežģītu kiberspiegošanas kampaņu, kas tika attiecināta uz Ķīnas valsts sponsorētu hakeru grupu. Pēc uzņēmuma domām, uzbrucēji izmantoja AI sistēmas, lai autonomi kartētu tīklus, rakstītu ekspluatācijas kodu, apkopotu izlūkdatus un nozagtu sensitīvus datus.
Anthropic lēš, ka aptuveni “80–90%” operācijas tika veiktas ar AI palīdzību.
“Mēs nesen strīdējāmies, ka ir sasniegts kiberdrošības pagrieziena punkts: punkts, kurā AI modeļi ir kļuvuši patiesi noderīgi kiberdrošības operācijām gan labā, gan slimā,” Anthropic rakstīja emuāra ierakstā, kurā tika apspriests uzbrukums.
Uzņēmums piebilda, ka izmeklētāji novērojuši uzbrucējus, kuri izmantoja mākslīgo intelektu “ne tikai kā padomdevēju, bet arī, lai paši veiktu kiberuzbrukumus”.

Šis paziņojums tajā laikā gandrīz netika reģistrēts ārpus kiberdrošības aprindām. Nozarē tas izraisīja tūlītējas bažas.
Drošības pētnieki gadiem ilgi uzskatīja, ka visbīstamākais AI atbalstītas uzlaušanas posms sāksies, kad modeļi spēs neatkarīgi identificēt nezināmas programmatūras sistēmu ievainojamības. Drošības komandas baidījās no nākotnes, kurā uzbrucēji varētu automatizēt trūkumu meklēšanu pārlūkprogrammās, operētājsistēmās, uzņēmuma rīkos, mākoņu platformās un kritiskajā infrastruktūrā tādā mērogā, ko cilvēkiem nav iespējams saskaņot.
Šīs bailes vairs neizskatās hipotētiskas.
Klods Mīts iedarbināja trauksmes zvanus visā Silīcija ielejā
Spiediens pastiprinājās aprīlī pēc tam, kad Anthropic ieviesa Claude Mythos, robežšķirtnes AI modeli, kas lielā mērā koncentrējās uz uzlabotiem kodēšanas un kiberdrošības uzdevumiem.
Ziņojumi par modeli ātri izraisīja trauksmes signālus bankās, valdības aģentūrās, mākoņpakalpojumos un kiberdrošības firmās pēc tam, kad parādījās apgalvojumi, ka sistēma varētu neparasti ātri identificēt programmatūras ievainojamības.
Saskaņā ar CNBC ziņojumu Anthropic ierobežoja piekļuvi modelim saskaņā ar iniciatīvu Project Glasswing, ierobežojot pieejamību nelielai lielāko ASV organizāciju grupai, tostarp Apple, Amazon, JPMorgan Chase un Palo Alto Networks.
“Tas, ko mēs tagad redzam visā nozarē, ir tas, ka cilvēki spēj reproducēt Mythos atklātās ievainojamības, gudri saskaņojot publiskos modeļus, lai iegūtu ļoti, ļoti līdzīgus rezultātus,” CNBC sacīja kiberdrošības uzņēmuma watchTowr izpilddirektors Bens Heriss.
Tiek ziņots, ka Anthropic baidījās, ka sistēmu varētu ļaunprātīgi izmantot noziedzīgi grupējumi vai naidīgas valdības, ja to plaši izlaidīs.
Bažas bija saistītas ar modeļa spēju identificēt “nulles dienas” ievainojamības.
Nulles dienas ir viens no bīstamākajiem atklājumiem kiberdrošības jomā. Šis termins attiecas uz slēptiem programmatūras trūkumiem, kas nav zināmi programmatūras radītājam. Tā kā pārdevēji nezina par ievainojamību, faktiski ir “nulles dienas”, lai sagatavotu aizsardzību, tiklīdz uzbrucēji sāk to izmantot.
Vērtīgākās nulles dienas var pārdot par miljoniem dolāru pazemes tirgos vai ar valdību saistītās ekspluatācijas biržās. Tos novērtē izlūkošanas aģentūras, nacionālo valstu hakeri un elitārās kibernoziedznieku grupas, jo tās ļauj uzbrucējiem iefiltrēties sistēmās, pirms ir izveidoti drošības ielāpi.
Anthropic apgalvoja, ka Klods Mitoss atklāja tūkstošiem ievainojamību lielākajās operētājsistēmās un pārlūkprogrammās, tostarp nepilnības, kas apraktas gadu desmitiem vecā programmatūrā.
Šī atklāsme kiberdrošības kopienā izraisīja satraukuma vilni.
Pētnieki baidījās, ka mākslīgā intelekta modeļi varētu ievērojami samazināt barjeru elites līmeņa kiberieroču atklāšanai.
Pēc dažām nedēļām Google saka, ka ir atradis pierādījumus, ka tas jau notiek.
Google saka, ka hakeri izmantoja AI, lai izveidotu nulles dienas ekspluatāciju
Pirmdien publicētajā pētījumā Google draudu izlūkošanas grupa atklāja, pēc tās domām, pirmo zināmo piemēru hakeriem, kas izmanto AI, lai palīdzētu atklāt un izmantot nulles dienas ievainojamību reālās pasaules uzbrukuma mēģinājumā.
Saskaņā ar Google datiem, uzbrucēji mērķēja uz populāru atvērtā pirmkoda tīmekļa sistēmas administrēšanas rīku. Ievainojamība noteiktos apstākļos ļautu hakeriem apiet divu faktoru autentifikāciju.
Uzņēmums paziņoja, ka pietiekami ātri informējis programmatūras pārdevēju, lai tiktu izdots drošības ielāps pirms plašas izmantošanas.
“Draudu dalībnieki izmanto AI, lai paplašinātu dažādas uzbrukuma dzīves cikla fāzes,” savā ziņojumā rakstīja Google. “Tas ietver atbalstu ievainojamības izmantošanas un ļaunprātīgas programmatūras izstrādei, komandu autonomas izpildes atvieglošanai, mērķtiecīgākas un labi izpētītas izlūkošanas nodrošināšanai un sociālās inženierijas un informācijas operāciju efektivitātes uzlabošanai.”
Google nekonstatēja iesaistīto administrācijas rīku, uzlaušanas grupu, kas aizsāka operāciju, vai AI platformu, kas, iespējams, tika izmantota uzbrukuma laikā. Uzņēmums piebilda, ka neuzskata, ka ir iesaistīti tās Gemini modeļi.
Tomēr Google pētnieki teica, ka viņiem ir “liela pārliecība”, ka AI modelis palīdz atklāšanas un ieroču noteikšanas procesā.
Šis secinājums daļēji tika balstīts uz neparastām īpašībām, kas atrastas ļaunprātīgā koda iekšpusē.
AI pirkstu nospiedumi, kas paslēpti ļaunprogrammatūrā
Saskaņā ar plašo The New York Times ziņojumu Google pētnieki atklāja vairākas pazīmes uzbrukuma kodā, kas parasti ir saistītas ar AI ģenerētu programmēšanas izvadi.
Tiek ziņots, ka ļaunprātīgais Python skripts ietvēra pārmērīgus paskaidrojošus komentārus, izglītojoša dokumentāciju, ļoti strukturētu formatējumu un pat halucinētu informāciju par ievainojamību, ko cilvēku hakeri reti iekļautu reālajā pasaulē.
Robs Džoiss, bijušais Nacionālās drošības aģentūras kiberdrošības direktors, pirms publicēšanas pārskatīja konstatējumus.
“Tas pagaidām ir tuvākais pirksta nospiedumam nozieguma vietā,” sacīja Džoisa.
Džons Hultkvists, Google Threat Intelligence Group galvenais analītiķis, brīdināja, ka uzbrukums, iespējams, ir tikai sākums daudz lielākai maiņai.
“Tā ir garša no gaidāmā,” Hultquist teica The New York Times. “Mēs uzskatām, ka šī ir aisberga redzamā daļa. Šī problēma, iespējams, ir daudz lielāka; tas ir tikai pirmais taustāmais pierādījums, ko mēs varam redzēt.”
Plašākas bažas kiberdrošības aprindās ir vienkāršas: AI sistēmas var ievērojami saīsināt laiku, kas nepieciešams programmatūras trūkumu noteikšanai un izmantošanai.
Ievainojamību, kuras atklāšana elitārajiem pētniekiem kādreiz prasīja vairākus mēnešus, AI sistēmas galu galā varēja atklāt stundu vai minūšu laikā.
Tas maina līdzsvaru starp uzbrucējiem un aizsargiem.
Autonomo kiberuzbrukumu pieaugums
Kiberdrošības nozare jau saskata agrīnas pazīmes, ka šī pāreja izplatās citos digitālās noziedzības veidos.
Google saka, ka draudi pārsniedz vienu ekspluatāciju.
Pēc uzņēmuma domām, uzbrucēji jau izmanto AI, lai paātrinātu “polimorfas” ļaunprātīgas programmatūras izveidi, kas var pastāvīgi mainīt savu uzvedību, lai izvairītos no atklāšanas. Google piebilda, ka iespējamie ar Krieviju saistīti draudu dalībnieki ir izmantojuši AI atbalstītas izstrādes metodes, lai izveidotu neskaidrības slāņus un mākslīgā intelekta radītu mānekļu loģiku, kuras mērķis ir sajaukt drošības pētniekus un aizsardzības sistēmas.
“Ar AI vadīta kodēšana ir paātrinājusi pretinieku infrastruktūras komplektu un polimorfas ļaunprātīgas programmatūras izstrādi,” rakstīja Google. “Šie ar AI iespējotie izstrādes cikli atvieglo izvairīšanos no aizsardzības, ļaujot izveidot apmulsināšanas tīklus un integrēt AI radīto mānekļu loģiku ļaunprogrammatūrā.”
ESET pētnieki nesen atklāja izpirkuma programmatūras variantu, kas pazīstams kā “PromptLock”, kas, kā ziņots, izmantoja vietējos AI modeļus, lai ģenerētu ļaunprātīgus šifrēšanas skriptus.
Drošības komandas arī redz, ka uzbrucēji “jailbreak” galvenās AI sistēmas palīdz veikt aizskarošus uzdevumus, maskējot ļaunprātīgas uzvednes kā likumīgus izpētes pieprasījumus.
Daži pētnieki šo taktiku neoficiāli dēvē par “vibe hacking”, kurā uzbrucēji manipulē ar AI sistēmām, lai apietu drošības ierobežojumus, izmantojot rūpīgi izstrādātas sarunvalodas uzvednes.
Rezultāts ir pieaugoša kiberbruņošanās sacensība starp uzņēmumiem, kas veido spēcīgākus mākslīgā intelekta aizsardzības līdzekļus, un uzbrucējiem, kas cenšas tiem izlauzties cauri.
Valdības pievērš lielu uzmanību.
Tiek ziņots, ka Trampa administrācija ir izpētījusi priekšlikumus pakļaut robežu AI sistēmas kaut kādā veidā valdības pārskatīšanai pirms publiskošanas, jo īpaši modeļus ar uzlabotām kiberdrošības iespējām.
Silīcija ielejā daudzi vadītāji tagad saskaras ar neērtu dilemmu.
Tās pašas AI sistēmas, kas spēj palīdzēt aizsargāt tīklus, var arī kļūt par spēcīgiem uzbrukuma kiberrīkiem, ja tās nonāk nepareizās rokās.
AI galu galā var padarīt programmatūru drošāku. Internetam vispirms ir jāizdzīvo
Daži kiberdrošības eksperti joprojām uzskata, ka uzlabotie AI modeļi galu galā uzlabos programmatūras drošību.
AI sistēmas kādreiz var palīdzēt izstrādātājiem novērst kodēšanas trūkumus pirms produktu izlaišanas, tādējādi samazinot izmantojamo ievainojamību skaitu internetā.
Tūlītējā realitāte izskatās daudz nekārtīgāka.
Mūsdienu internets joprojām darbojas, izmantojot gadu desmitiem ilgu nepilnīgu kodu, ko cilvēki rakstījuši miljoniem serveru, lietojumprogrammu, maršrutētāju, uzņēmumu sistēmu un mākoņa platformu. Liela daļa šīs infrastruktūras nekad netika veidota laikmetam, kurā AI sistēmas varēja skenēt, analizēt un izmantot nepilnības mašīnas ātrumā.
“Jaunākie modeļi ļaus mums izveidot drošāko kodu, ko esam izveidojuši,” sacīja Hultkvists. “Tā ir absolūta uzvara kiberdrošībai. Izaicinājums ir tāds, ka mēs tikko esam sākuši šo procesu, un mums ir jācīnās ar koda pasauli, kas jau pastāv.”
Tas tagad var būt noteicošais AI laikmeta kiberdrošības izaicinājums.
Sacensības vairs nenotiek tikai starp hakeriem un aizstāvjiem.
Tā kļūst par sacensībām starp neaizsargātu cilvēku rakstītu programmatūru un mašīnām, kas mācās to sabojāt.