Kopš tā palaišanas pirms vairāk nekā diviem gadiem OpenAI ChatGPT ir piesaistījis vairāk nekā 100 miljonus lietotāju, no kuriem 300 miljoni iesaistās katru nedēļu. Taču, pieaugot tās popularitātei, pieaug arī bažas par to, kā tiek izmantoti personas dati. Jaunākie atklājumi atklāj, ka OpenAI apmācīja ChatGPT, izmantojot lietotāja datus bez atbilstošas piekrišanas, izraisot nozīmīgas ētiskas diskusijas. Tas atklājās pēc tam, kad Itālijas sargsuņa veiktā izmeklēšana atklāja privātuma likumu pārkāpumus.
Itālijas datu aizsardzības iestāde piektdien paziņoja par 15 miljonu eiro soda naudu (15,58 miljoniem ASV dolāru) OpenAI, pabeidzot izmeklēšanu par personas datu izmantošanu ChatGPT apmācībai. Saskaņā ar regulatora teikto, OpenAI trūka derīga tiesiskā pamata datu apstrādei un tas nespēja nodrošināt atbilstošu pārskatāmību par savu praksi, ziņoja Reuters.
Šī nav pirmā reize, kad OpenAI tiek pārbaudīts Itālijā. Gandrīz pirms gada tā pati iestāde pauda līdzīgas bažas, apsūdzot Microsoft atbalstīto AI starta uzņēmumu privātuma likumu pārkāpšanā. OpenAI tika dotas 30 dienas, lai atbildētu, un, lai gan tika veiktas dažas korekcijas, radās jautājumi par platformas atbilstību.
Itālija uzliek naudas sodu OpenAI 15 miljonu eiro apmērā par privātuma pārkāpumiem
Kopš tā laika OpenAI ir kritizējis neseno naudas sodu, nosaucot to par “nesamērīgu” un paziņojot par plāniem pārsūdzēt. Uzņēmums arī norādīja, ka sods ievērojami pārsniedz ieņēmumus, kas gūti Itālijā attiecīgajā periodā, argumentējot, ka lēmums varētu kavēt valsts progresu AI ieviešanā.
Izmeklēšana arī atklāja nepilnības jaunāko lietotāju aizsardzībā. Tika konstatēts, ka OpenAI trūkst atbilstošu vecuma pārbaudes pasākumu, kas, iespējams, pakļauj bērnus, kas jaunāki par 13 gadiem, nepiemērotam AI radītam saturam. Kā daļu no rezolūcijas OpenAI ir jāvada sešu mēnešu plašsaziņas līdzekļu kampaņa Itālijā, lai izglītotu sabiedrību par datu vākšanas praksi.
Rūpīgas pārbaudes vēsture Itālijā
Itālijas Garante, viens no Eiropas Savienības vadošajiem AI atbilstības regulatoriem, ir ieņēmis stingru nostāju attiecībā uz datu privātuma aizsardzību. Pagājušajā gadā tas uz laiku aizliedza ChatGPT par iespējamiem ES privātuma noteikumu pārkāpumiem, vēlāk atļaujot to atgriezties pēc tam, kad OpenAI bija novērsis vairākas bažas, tostarp lietotāju piekrišanas iespējas datu lietošanai, saskaņā ar Reuters ziņojumu.
“Viņi kopš tā laika ir atzinuši mūsu nozarē vadošo pieeju privātuma aizsardzībai AI, tomēr šis naudas sods gandrīz divdesmit reizes pārsniedz ieņēmumus, ko attiecīgajā periodā guvām Itālijā,” sacīja OpenAI, piebilstot, ka Garante pieeja “grauj Itālijas AI ambīcijas”.
Neskatoties uz OpenAI sadarbības centieniem, regulators, nosakot naudas sodu, ņēma vērā pārkāpumu smagumu. Saskaņā ar ES Vispārīgo datu aizsardzības regulu (GDPR) uzņēmumiem, kas pārkāpj privātuma likumus, var tikt piemērots sods līdz 20 miljoniem eiro jeb 4% no to globālā apgrozījuma.
Lai gan OpenAI ir apgalvojis, ka tā privātuma pasākumi ir nozarē vadošie, šis gadījums uzsver pieaugošās problēmas, ar kurām saskaras AI uzņēmumi, jo tie orientējas sarežģītos datu regulējumos un regulatoru pastiprinātā pārbaudē.