Microsoft un OpenAI saka, ka hakeri izmanto ChatGPT, lai uzlabotu kiberuzbrukumus un uzlabotu savu prasmi.

Microsoft un OpenAI šodien atklāja, ka valsts sponsorēti hakeri izmanto uzlabotus valodu modeļus, piemēram, ChatGPT, lai uzlabotu savus kiberuzbrukumus. Kopīgais pētījums atklāja gadījumus, kad Krievijas, Ziemeļkorejas, Irānas un Ķīnas atbalstītās grupas izmanto tādus rīkus kā ChatGPT mērķa izpētei, skriptu uzlabošanai un sociālās inženierijas metožu izstrādei.

Šis revolucionārais pētījums, kas detalizēti aprakstīts abu uzņēmumu vietnēs, atklāj, kā hakeri, kas saistīti ar ārvalstu valdībām, savos uzbrukumos iekļauj ģeneratīvo mākslīgo intelektu. Microsoft īpaši uzsvēra, ka OpenAI tehnoloģiju izmanto piecas ar Ķīnu, Krieviju, Ziemeļkoreju un Irānu saistītas hakeru grupas.

Pretēji tehnoloģiju nozares bažām par AI ģenerētiem eksotiskiem uzbrukumiem, hakeri to izmanto ikdienišķākiem uzdevumiem, piemēram, e-pastu sastādīšanai, dokumentu tulkošanai un koda atkļūdošanai, norāda uzņēmumi.

OpenAI sadarbībā ar Microsoft Threat Intelligence arī ziņoja par piecu ar valsti saistītu dalībnieku pārtraukšanu, kas mēģināja izmantot AI pakalpojumus ļaunprātīgām kiberdarbībām.

“Sadarbībā ar Microsoft Threat Intelligence esam traucējuši piecus ar valsti saistītus dalībniekus, kuri mēģināja izmantot AI pakalpojumus, lai atbalstītu ļaunprātīgas kiberdarbības. Mēs arī izklāstām savu pieeju šādu dalībnieku atklāšanai un izjaukšanai, lai veicinātu informācijas apmaiņu un pārredzamību par viņu darbībām, ”sacīja OpenAI.

emuāra ierakstā Microsoft teica: “Kibernoziedzības grupas, nacionālo valstu apdraudējumu dalībnieki un citi pretinieki pēta un testē dažādas mākslīgā intelekta tehnoloģijas, kad tās parādās, cenšoties izprast savu darbību potenciālo vērtību un drošības kontroli, kas tiem varētu būt nepieciešama apiet.” Toms Bērts, kurš pārrauga Microsoft centienus apkarot lielus kiberuzbrukumus, piebilda: “Viņi to vienkārši izmanto tāpat kā visi citi, lai mēģinātu būt produktīvāki savā darbībā.”

Grupa Strontium, kas saistīta ar Krievijas militāro izlūkošanu, tika atrasta, izmantojot lielos valodu modeļus (LLM), lai izprastu satelītu sakaru protokolus, radaru attēlveidošanas tehnoloģijas un tehniskos parametrus. LLM tika izmantoti arī pamata skriptu uzdevumiem, piemēram, failu manipulācijām un datu atlasei.

Microsoft piebilda, ka kibernoziegumu grupas un valsts sponsorēti dalībnieki pēta un testē dažādas mākslīgā intelekta tehnoloģijas, lai izprastu to vērtību darbībā un identificētu iespējamos drošības kontroles pasākumus, ko apiet.

“Vai tas ir kaut kas jauns un novatorisks, kas paātrina pretinieka darbību, papildus tam, ko varētu nodrošināt labāka meklētājprogramma? Es neesmu redzējis nekādus pierādījumus par to,” sacīja Bobs Rotsteds, kurš vada OpenAI kiberdrošības draudu izlūkošanu.

Microsoft, investējot 13 miljardus USD OpenAI, uztur ciešu sadarbību ar starta uzņēmumu. Viņi dalījās informācijā par draudiem, lai detalizēti aprakstītu, kā ar Ķīnu, Krieviju, Ziemeļkoreju un Irānu saistītas hakeru grupas izmantoja OpenAI tehnoloģiju. Konkrētā izmantotā OpenAI tehnoloģija netika atklāta, taču starta programma minēja, ka pēc atklāšanas ir ierobežota piekļuve šīm grupām.

Kopš ChatGPT izlaišanas 2022. gada novembrī ir paustas bažas par to, ka pretinieki izmanto jaudīgus AI rīkus. Tomēr Bobs Rotsteds, kurš vada OpenAI kiberdrošības draudu izlūkošanu, norādīja, ka realitāte varētu būt nepietiekami novērtēta, apšaubot, vai AI piedāvā kaut ko ievērojami jaunu, pārsniedzot to, ko varētu piedāvāt labāka meklētājprogramma. Neskatoties uz centieniem ierobežot reģistrēšanos kontā, sarežģīti vainīgie joprojām var izvairīties no atklāšanas, izmantojot dažādas metodes.