OpenAI uzlauzts: hakeris datu pārkāpuma rezultātā nozadzis OpenAI iekšējos AI noslēpumus, ziņo NYT

Pagājušajā gadā lielā drošības pārkāpuma rezultātā hakeris iefiltrējās OpenAI iekšējās ziņojumapmaiņas sistēmās, nozogot sensitīvu informāciju par uzņēmuma mākslīgā intelekta tehnoloģijām, ceturtdien ziņoja laikraksts New York Times. Pārkāpums atklāja arī iekšējās sarunas starp pētniekiem un citiem darbiniekiem, izceļot ievainojamības uzņēmumā.

Saskaņā ar Times teikto, hakeris piekļuva tiešsaistes forumam, kurā OpenAI darbinieki apsprieda savus jaunākos tehnoloģiskos sasniegumus. Tomēr hakeris neiekļuva galvenajās sistēmās, kurās OpenAI izstrādā un uztur savu AI. Neskatoties uz pārkāpuma nopietnību, Microsoft Corp atbalstītais OpenAI neatbildēja uz plašsaziņas līdzekļu komentāru pieprasījumu.

“Pagājušā gada sākumā, hakeris ieguva piekļuvi OpenAI, ChatGPT ražotāja, iekšējām ziņojumapmaiņas sistēmām un nozaga informāciju par uzņēmuma AI tehnoloģiju dizainu.. Hakeris atklāja informāciju no diskusijām tiešsaistes forumā, kurā darbinieki runāja par OpenAI jaunākajām tehnoloģijām, saskaņā ar divu cilvēku teikto, kas bija pazīstami ar šo incidentu, taču neiekļuva sistēmās, kurās uzņēmums glabā un būvē savu mākslīgo intelektu,” ziņo New York Times. .

Uzņēmums par pārkāpumu informējis savus darbiniekus sabiedriskajā sanāksmē pagājušā gada aprīlī, un par to tika informēta arī direktoru padome. Tomēr vadītāji izvēlējās šo incidentu neizpaust publiski, jo netika apdraudēta neviena klienta vai partnera informācija.

Lēmums nepubliskot pārkāpumu tika pieņemts, pamatojoties uz vērtējumu, ka hakeris, šķiet, ir persona bez sakariem ar ārvalstu valdību, tādējādi neradot valsts drošības apdraudējumu. Līdz ar to OpenAI neziņoja par incidentu FIB vai citām federālajām tiesībaizsardzības iestādēm.

Dažiem OpenAI darbiniekiem šis pārkāpums izraisīja bažas par iespējamiem ārvalstu pretinieku, piemēram, Ķīnas, draudiem, kuri varētu mēģināt nozagt AI tehnoloģiju, kas galu galā varētu apdraudēt ASV nacionālo drošību. Incidents arī radīja jautājumus par OpenAI apņemšanos nodrošināt drošību un atklāja iekšējās domstarpības par riskiem, kas saistīti ar AI tehnoloģijām.

Pēc pārkāpuma Leopolds Ašenbrenners, OpenAI tehniskās programmas vadītājs, kurš koncentrējās uz kaitīgu AI lietojumprogrammu novēršanu, nosūtīja piezīmi uzņēmuma valdei. Memorandā viņš apgalvoja, ka OpenAI neveic pietiekamus pasākumus, lai aizsargātu savus noslēpumus no ārvalstu pretiniekiem, tostarp Ķīnas valdības.

Maijā OpenAI paziņoja, ka ir pārtraukusi piecas slēptās ietekmes operācijas, mēģinot ļaunprātīgi izmantot savus AI modeļus maldinošām darbībām tiešsaistē. Šis incidents palielināja bažas par drošību par iespējamo mākslīgā intelekta tehnoloģijas ļaunprātīgu izmantošanu.

Ņemot vērā šīs drošības problēmas, Baidena administrācija ir gatavojusies ieviest pasākumus, lai aizsargātu ASV AI tehnoloģiju no tādiem pretiniekiem kā Ķīna un Krievija. Sākotnējie plāni ietver stingru noteikumu ieviešanu attiecībā uz vismodernākajiem AI modeļiem, tostarp ChatGPT, kā ziņo Reuters.

Maija globālajā sanāksmē 16 uzņēmumi, kas izstrādā mākslīgo intelektu, apņēmās koncentrēties uz drošu tehnoloģiju attīstību, atspoguļojot regulatoru pieaugošo steidzamību risināt straujas inovācijas un jaunus riskus AI nozarē, ziņo Reuters.

OpenAI, ko 2015. gadā dibināja Sems Altmens un Elons Masks, sāka darboties kā bezpeļņas pētniecības organizācija, kuras mērķis ir veicināt drošu un izdevīgu mākslīgo vispārējo intelektu (AGI). Tomēr 2020. gadā tas kļuva par komerciālu vienību, iezīmējot būtiskas izmaiņas savā ceļā. Neskatoties uz iekšējiem satricinājumiem novembrī, tostarp Altmana īso aiziešanu un turpmāko atgriešanos, OpenAI turpina vadīt dinamisko AI tirgu, ko veicina tā vadošā produkta ChatGPT panākumi, kas tika laisti klajā 2022. gadā.