OpenAI joprojām nodarbojas ar tērzēšanas nopludināšanu

Lielie valodu modeļi (LLM), kuros darbojas AI tērzēšanas roboti, iespējams, ir daži no lielākajiem informācijas krātuvēm no interneta. Šī informācija var būt nekaitīga vai ļoti sensitīva. OpenAI, uzņēmums, kas darbojas aiz ChatGPT, tagad nodarbojas ar papildu drāmu, ko rada nopludinātas sarunas, kas izplata kādu sensitīvu informāciju.

Ir svarīgi zināt, ka šis stāsts joprojām ir tikai attīstības stadijā. Tātad, ļoti iespējams, ka varētu rasties jaunas detaļas un pilnībā mainīt šīs nesenās drāmas trajektoriju. Pagaidām stāstam ir divas daļas.

OpenAI joprojām nodarbojas ar nopludinātām sarunām, izmantojot ChatGPT

Stāsta pirmajā daļā ir iesaistīts ArsTechnica lasītājs, kurš parāda dažus diezgan satraucošus ekrānuzņēmumus. Saskaņā ar publikāciju attiecīgais lasītājs plaši izmanto ChatGPT. Nu, kādu dienu pieslēdzoties servisā, lasītājs tur pamanīja vairākas sarunas, kas it kā materializējās no nekurienes. Viņiem nebija šīs sarunas ar ChatGPT.

Tas ir pietiekami dīvaini, bet lietas pasliktinās, kad mēs saprotam sarunu saturu. Vienā no sarunām bija iesaistīts aptiekas darbinieks, kurš izmantoja ChatGPT, lai novērstu problēmas saistībā ar narkotiku portālu. Skatoties uz rediģēto sarunu, ir skaidrs, ka darbinieks bija ļoti neapmierināts.

Tomēr sarunā šokējošāk ir tas, ka strādnieki, šķiet, sarunā ir izkrāvuši ļoti daudz sensitīvas informācijas. Tas ietver vairākus lietotājvārdus un paroles, kā arī izmantotā portāla nosaukumu. Tātad nepareizajās rokās tas var izrādīties postoši attiecīgajai aptiekai un visiem cilvēkiem, kuri paļaujas uz saviem medikamentiem.

Šī ir tikai viena no sarunām, kas tika nopludinātas, izmantojot ChatGPT, un mēs neesam pilnīgi pārliecināti, cik tā ir izplatīta. Jebkurā gadījumā to neviens nevēlas redzēt. Lai gan tas nav paredzēts, cilvēki dažreiz mēdz savās tērzēšanas robotu sarunās ievietot sensitīvu informāciju.

OpenAI atbildēja

Tagad par stāsta otro daļu. Uzreiz šis šķiet ļoti postošs notikumu pavērsiens. Tomēr šķiet, ka ArsTechnica publikācija parādījās nedaudz par agru. Android iestāde sazinājās ar OpenAI par situāciju, un uzņēmums atbildēja.

“ArsTechnica publicēja, pirms mūsu krāpšanas un drošības komandas paspēja pabeigt izmeklēšanu, un viņu ziņojumi diemžēl ir neprecīzi. Pamatojoties uz mūsu konstatējumiem, lietotāju konta pieteikšanās akreditācijas dati tika apdraudēti, un pēc tam kontu izmantoja slikts dalībnieks. Parādītā tērzēšanas vēsture un faili ir sarunas no šī konta ļaunprātīgas izmantošanas, un tas nebija gadījums, kad ChatGPT rāda citu lietotāju vēsturi.

Tātad šķiet, ka ChatGPT nejauši nenodod sarunas citiem lietotājiem, piemēram, izdala pokera kārtis. Šķiet, ka attiecīgo lietotāju ir uzlauzis slikts aktieris. Šis nezināmais hakeris pēc tam nopludināja sarunas.

Lai gan mums nav pierādījumu, lai apstrīdētu OpenAI, skaidrojums izklausās nedaudz dīvains, drīzāk tas šķiet nepilnīgs. Sliktais aktieris izvēlējās sarunas nodot nejaušiem cilvēkiem – tas šķiet dīvaini. Jebkurā gadījumā šķiet, ka ChatGPT patvaļīgi nenopludina sarunas citiem ChatGPT lietotājiem. Acīmredzot šajā sliktā aktiera stāstā ir vairāk, taču, cerams, lietotājiem vajadzētu būt drošiem.

Tas ir svarīgi lai kopīgotu personisko informāciju ar jebkuru AI tērzēšanas robotu. Jūs nekad nezināt, kur šie dati nonāk. Diemžēl aptiekas darbiniekam pieteikšanās akreditācijas dati tagad atrodas OpenAI serveros,

Tiklīdz būs pieejama sīkāka informācija, jūs informēsit par šo stāstu.