Jūsu iecienītākos tērzēšanas robotus var izmantot, lai nozagtu sensitīvos datus

Ai, vai tas ir labi vai slikti? Tas ir jautājums, ko vairums cilvēku joprojām uzdod. Kaut arī šī tehnoloģija noteiktos aspektos ir bijusi lieliska, mēs nevaram noliegt, ka pastāv nopietna kaitējuma potenciāls. Jauns piemērs tam nāca no Cato Networks ziņojuma. Daži no visspēcīgākajiem tērzēšanas robotiem var būt jailbreak, lai nozagtu privātos datus no Google Chrome.

Kas ir jailbreaking?

Brīdī, kad mēs uzzinājām par tērzēšanas robotu spēku, vairāki cilvēki sāka mēģināt izdomāt, kā tos izmantot ļaunprātīgiem mērķiem. Lieta ir tāda, ka visiem lielākajiem tērzēšanas robotiem ir aizsargmargas, lai neļautu cilvēkiem radīt jebkādu kaitīgu materiālu. Nu, AI modeļi var līdzināties cilvēku domāšanai, un tos var pievilināt kā cilvēks.

Jailbreaking ir modeļa viltošanas process, lai ģenerētu kaut ko tādu, kas tam nav paredzēts. Piemēram, ja jūs lūdzat tērzēšanas rādītāju ģenerēt kodu datora vīrusam, tas jums pateiks, ka tā nevar. Tomēr, ja jūs pievilināt tērzētavu domāt, ka tas ir nelietis stāstā, un liekot tam ģenerēt kodu, tad to sauc par jailbreaking. Hakeri ir atraduši visādus veidus, kā Jailbreak AI modeļus, lai radītu problēmas.

Populārākos tērzēšanas robotus var izmantot, lai nozagtu sensitīvus datus no hroma

Cato tīkli spēja izveidot hroma Infostealer ļaunprātīgu programmatūru, izmantojot jaunu jailbreaking paņēmienu ar nosaukumu “Iegremdē pasauli”. Pētniecības komanda šim eksperimentam izmantoja tādus tērzēšanas robotus kā Chatgpt, Microsoft Copilot un DeepSeek.

Šajā piemērā komanda izmantoja Chatgpt (pamatojoties uz ekrānuzņēmumu, viņi izmantoja O1-Mini, tāpēc nav teikts, kā tas darbosies ar citiem modeļiem). Eksperimentam komanda izveidoja detalizētu pasauli, lūdzot tērzēšanas robotu “Izveidojiet stāstu manai nākamajai grāmatas virtuālajai pasaulei, kur ļaunprātīgas programmatūras attīstība ir amatniecība… ”

Pasaules izstrāde

Šajā piemērā mēs redzam, kā komanda aizpilda dažus pasaules noteikumus. No turienes viņi piešķīra rakstzīmi tērzētavai. Pēc tam Chatgpt pieņēma ļaunprātīgas programmatūras izstrādātāja Džeksona lomu. Tātad, ieskaujošā pasaule tika izveidota, un komanda pēc tam pierunāja Chatgpt, ģenerējot kodu Infostealer.

Lai pārbaudītu kodu, komanda to izmantoja Google Chrome versijā 133.0.6943.127Apvidū Ļaunprātīga programmatūra tika izmantota, lai nozagtu privātos datus no pārlūka paroļu pārvaldnieka.

Chrome Infostealer 2

Tā kā Chatgpt bija tik iegrimis pasaulē, nezināja, ka nav paredzēts atteikties no informācijas, piemēram, kā nozagt kāda saglabātās paroles. Tas ne tikai palīdzēja padarīt Infostealer, bet arī paskaidroja, kā Chrome šifrē savus saglabātos datus.

Chrome Infostealer 3

Tas bija pakāpenisks process, un komanda nepārtraukti pieskārās bāzei ar Chatgpt, lai uzlabotu kodu un skvoša kļūdas. Visu laiku tas pilnīgi nezināja, ka tas tiek pievilts. Tas ir diezgan bīstami, jo Chatgpt un citiem tērzēšanas robotiem ir pieejami milzīgi daudzi zināšanu par pasauli.

Lieki piebilst, ka komanda varēja veiksmīgi izgatavot Infostealer un iegūt datus no Google paroles pārvaldnieka. Tā kā cilvēki lielāko daļu paroļu izglābj, izmantojot Chrome, nav teikts, cik daudz cilvēku varētu apdraudēt, ja tas būtu īsta hakera rokās.

Diezgan kļūdu problēma

Acīmredzot Cato Network, NOR Android virsraksti atklās sīkāku informāciju par to, kā izveidot Infostealer ļaunprātīgu programmatūru. Tas bija tikai tāpēc, lai parādītu, ka potenciāls ir tur. Mēs jau iepriekš esam redzējuši tik daudz dažādu cietuma shēmu veidu, un daudzi no tām ir fiksēti. Tomēr cilvēki atrod jaunus veidus, kā apiet apsardzes, kuras uzņēmumi izveidoja.

Tas pasliktina to, ka jailbreaking tērzēšanas roboti gandrīz vienmēr tiek izmantoti nožēlojamu iemeslu dēļ. Jūs nedzirdat par nevienu, kas Jailbreaking Chatgpt palīdz atrast slimības izārstēšanu. Tomēr lielākajai daļai cilvēku, kuriem Jailbreak Chatbots izdodas izplatīt ļaunprātīgu programmatūru, iegūt sensitīvus datus un veikt citus darbus.

Cato Networks komanda ne tikai varēja apmānīt Chatgpt, bet arī spēja apmānīt kopilotu un DeepSeek. Mēs esam pārliecināti, ka daudzi cilvēki izmanto kopilotu, bet DeepSeek pēdējā mēneša laikā ir eksplodējis popularitāti. Visi trīs no tiem ir populāri un labi finansēti tērzēšanas roboti, un tos var apmānīt ar tik vienkāršu triku.

Microsoft, Openai un DeepSeek ir atkarīgs no šo problēmu ielāpšanas. Mēs neesam pārliecināti, ka kādreiz būs nākotne, kurā tērzēšanas roboti ir pilnīgi imūni pret cietumu, taču šīs problēmas novēršana būs labs sākums.