Jau gadiem ilgi kiberdrošības eksperti bija noraizējušies par brīdi, kad mākslīgais intelekts izjauks līdzsvaru starp uzbrucējiem un aizstāvjiem. Iespējams, tas brīdis jau ir pienācis.
Anthropic jaunais mākslīgā intelekta modelis Claude Mythos izraisīja trauksmi bankās, regulatoros, tehnoloģiju uzņēmumos un valdības aģentūrās pēc tam, kad parādījās ziņojumi, ka sistēma spēj identificēt programmatūras ievainojamības ātrāk nekā cilvēku pētnieki. Saskaņā ar CNBC ziņojumu bažas bija pietiekami nopietnas, tāpēc Anthropic izvēlējās modeli neizlaist publiski, ierobežojot piekļuvi nelielai lielāko ASV uzņēmumu grupai, tostarp Apple, Amazon, JPMorgan Chaseun Palo Alto tīkli.
Mythos, kas tika paziņots 2026. gada aprīlī, ir progresīva AI sistēma, kas koncentrējas uz uzlabotiem kodēšanas un kiberdrošības uzdevumiem. Anthropic saka, ka modelis var identificēt pārlūkprogrammu un operētājsistēmu ievainojamības tādā mērogā, kas pārsniedz cilvēku ekspertus. Uzņēmums ierobežoja piekļuvi saskaņā ar drošības iniciatīvu Project Glasswing, baidoties, ka tehnoloģiju varētu ļaunprātīgi izmantot noziedzīgas grupas vai naidīgas valdības.
Tomēr kiberdrošības pētnieki saka, ka patiesais šoks nav pats Mythos. Tā ir apziņa, ka liela daļa šo iespēju jau pastāv.
“Tas, ko mēs tagad redzam visā nozarē, ir tas, ka cilvēki spēj reproducēt Mythos atklātās ievainojamības, gudri saskaņojot publiskos modeļus, lai iegūtu ļoti, ļoti līdzīgus rezultātus,” CNBC sacīja kiberdrošības uzņēmuma watchTowr izpilddirektors Bens Heriss.
Šī atziņa liek sāpīgi pārvērtēt kiberdrošības nozari. Bailes vairs nav par tālu nākotni, kurā AI galu galā kļūst bīstams. Bažas rada tas, ka esošās AI sistēmas jau spēj atrast programmatūras trūkumus ātrāk, nekā uzņēmumi var tās novērst.
OpenAI sarunās iesaistījās nedēļas vēlāk, izmantojot GPT-5.5-Cyber — modeli, kas izstrādāts kiberdrošības uzdevumiem. Uzņēmums ceturtdien atvēra ierobežotu piekļuvi pārbaudītām drošības komandām, norādot, ka lielākās AI laboratorijas tagad atklāti sacenšas, lai attīstītu uzbrukuma un aizsardzības kiberspējas.
Anthropic’s Mythos atklāja problēmu, kuru nozare vairs nevar ignorēt
Antropiskais izpilddirektors Dario Amodejs šonedēļ brīdināja, ka briesmas var pārsniegt atsevišķus uzlaušanas gadījumus.
“Briesmas ir tikai milzīgs ievainojamību, pārkāpumu skaita un finansiālā kaitējuma pieaugums, ko skolās, slimnīcās, nemaz nerunājot par bankām, nodara izspiedējvīrusa,” sacīja Amodejs antropiskā pasākuma laikā.
Kiberdrošības pētnieki saka, ka viena no visnepatīkamākajām stāsta daļām ir tāda, ka AI sistēmas, iespējams, jau samazina barjeru liela mēroga kiberuzbrukumiem.
“Modeļi, kas mums pašlaik ir, ir pietiekami spēcīgi, lai lielā mērogā noteiktu nulles dienas, un tas ir pietiekami biedējoši,” CNBC sacīja kiberdrošības uzņēmuma Vidoc izpilddirektore Klaudia Kloc.
Nulles dienas ievainojamība ir programmatūras kļūda, kas izstrādātājiem nav zināma un nav novērsta brīdī, kad uzbrucēji to atklāj. Agrāk šo ievainojamību atrašanai bieži bija nepieciešamas ļoti specializētas zināšanas un mēnešu darbs. AI maina šo vienādojumu.
Vidoc pētnieki pārbaudīja, vai vecāki publiskie modeļi no Anthropic un OpenAI var atkārtot Mythos stila rezultātus, izmantojot orķestrēšanas metodes, kas sadala lielas kodu bāzes mazākās sadaļās un pārbauda rezultātus vairākās AI sistēmās. Pēc Kloc teiktā, viņiem tas izdevās.
Cits kiberdrošības jaunuzņēmums Aisle nonāca pie līdzīga secinājuma. Dibinātājs Staņislavs Forts rakstīja, ka daudzus Mythos virsraksta rezultātus var reproducēt, izmantojot lētākus AI modeļus, kas darbojas paralēli.
“Tūkstoš adekvātu detektīvu, kas meklē visur, atradīs vairāk kļūdu nekā viens izcils detektīvs, kuram ir jāuzmin, kur meklēt,” sacīja Forts.
Anthropic neapstrīd, ka agrākiem AI modeļiem jau ir nozīmīgas iespējas atklāt ievainojamību. Uzņēmums norādīja uz iepriekšējiem pētījumiem, kas liecina, ka Claude Opus 4.6 atklāja vairāk nekā 500 ļoti nopietnu atvērtā koda programmatūras ievainojamību.
Mythos no iepriekšējām sistēmām atšķir tās spēja izvairīties no atklāšanas un ģenerēt darba ekspluatāciju ar minimālu cilvēku iesaistīšanos. Šis solis satrauc regulatorus un finanšu iestādes daudz vairāk nekā ievainojamību atklāšana vien.
Bankas un regulatori cenšas sagatavoties kiberuzbrukumiem, kuru pamatā ir AI
Bankas, apdrošinātāji un regulatori tagad saskaras ar bīstamu nelīdzsvarotību. AI sistēmas var atklāt nepilnības mašīnas ātrumā. Patching programmatūra joprojām pārvietojas cilvēka ātrumā.
Bažas jau ir sasniegušas Vašingtonu.
Aprīlī Semafor ziņoja, ka ASV Valsts kases departaments meklē piekļuvi Anthropic’s Mythos modelim, lai amatpersonas varētu izpētīt ievainojamības, kuras sistēma, kā ziņots, spēj izmantot.
Šis pieprasījums iezīmēja vienu no līdz šim skaidrākajām pazīmēm, ka robežlīnijas AI sistēmas tiek uzskatītas mazāk kā parastie programmatūras produkti un vairāk kā valsts riska infrastruktūra, kas saistīta ar finanšu sistēmu, kritisko tīklu un valdības darbību stabilitāti.
Pāreja varētu ievilkt mākslīgā intelekta laboratorijas pašreizējā valdības uzraudzībā, jo regulatori pieprasa tiešus tehniskus novērtējumus uzlabotajiem modeļiem ar kiberspējām.
“Nozare ir panikā par ievainojamību skaitu, ar kurām viņi tagad saskaras,” sacīja Hariss. “Bet pat pirms Mythos bija plaši pieejams, tas nevarēja pietiekami ātri novērst ievainojamības.”
Šī nelīdzsvarotība pārveido korporāciju un valdību kiberdrošības stratēģiju. Drošības komandas, kas savulaik koncentrējās uz manuālu ielāpu pārvaldību, arvien vairāk apspriež “mašīnas reaģēšanas” sistēmas, kas spēj automātiski identificēt, noteikt prioritāti un labot ievainojamības, pirms uzbrucēji var tās izmantot.
Bažas sniedzas ārpus Silīcija ielejas.
Kiberdrošības pētnieki brīdina, ka nacionālo valstu hakeru grupām tādās valstīs kā Ķīna, Krievija un Ziemeļkoreja, iespējams, jau ir daudzas no šīm iespējām, izmantojot savu AI pētījumu vai piekļūstot publiskiem modeļiem.
“Hakeri Ziemeļkorejā, Ķīnā un Krievijā zina, kā to izdarīt neatkarīgi no tā, vai tas ir Antropisks,” sacīja Klocs.
Finanšu iestādes šķiet īpaši noraizējušās. JPMorgan izpilddirektors Džeimijs Dimons pagājušajā mēnesī sacīja, ka mākslīgā intelekta rīki sākotnēji var padarīt uzņēmumus neaizsargātākus, pirms galu galā palīdz tiem sevi aizstāvēt.
“Jums ir ievērojami palielinājies atklāto ievainojamību skaits, taču šķiet, ka viņi nav izvietojuši rīku, kas palīdzētu tās novērst,” sacīja Džastins Herings, Mayer Brown partneris un bijušais Ņujorkas finanšu regulatora izpilddirektora vietnieks kiberdrošības jautājumos.
“Neaizsargātības pārvaldība ir lielais kiberdrošības Sizifa uzdevums,” sacīja Heringa.
Mythos ierobežotā izplatīšana ir izraisījusi vēl vienu diskusiju kiberdrošības kopienā. Daži pētnieki apgalvo, ka piekļuves ierobežošana nelielam uzņēmumu lokam radīja nevienmērīgus konkurences apstākļus, kur dažas lielas korporācijas ieguva priekšrocību aizsardzības sagatavošanā.
Citi apgalvo, ka Antropiskajam bija maz izvēles.
Šķiet, ka uzņēmums ir iesprūdis starp diviem konkurējošiem riskiem: jaudīgu kiberspēju pārāk plaši atbrīvošanu vai aizsardzības pētniecības tempa palēnināšanu, turot tehnoloģiju aiz slēgtām durvīm.
“Viņi cenšas izdomāt labāko veidu, kā sakārtot pasauli, pirms tas kļūst pieejams pasaulei,” sacīja Ben Seri, kiberdrošības startup Zafran Security līdzdibinātājs. “Tā ir šāda vistas un olu situācija, un jūs salauzīsit dažas olas. Tas ir neizbēgami.”