No visām valstīm, kuru pilsoņi izmanto ChatGPT, Itālija, šķiet, ir vispiesardzīgākā. Jo īpaši pagājušajā gadā Itālijas valdība aizliedza ChatGPT izmantošanu valstī. Tomēr aptuveni mēnesi vēlāk valdība atjaunoja ChatGPT. Šķiet, ka drāma nav beigusies, jo Itālija saka, ka ChatGPT faktiski pārkāpj valsts datu aizsardzības noteikumus.
OpenAI nekad īsti nav bijis Itālijas labā pusē. Valsts pauda lielas bažas par savu pilsoņu privātumu. Tas ir spēkā, jo, lai apmācītu ChatGPT, OpenAI ir jāievada tonnas datu no visa interneta. Tas ir izraisījis OpenAI dažās juridiskās cīņās pēdējā gada laikā. Viena no jaunākajām tiesas zāles specifikācijām bija saistīta ar Wall Street Journal, kas vēlas iesūdzēt tiesā atklāto AI par autortiesībām.
Itālija saka, ka ChatGPT pārkāpj datu aizsardzības noteikumus
Kad valstī tika atjaunota ChatGPT darbība, Itālijas Vispārējā datu aizsardzības regula (GDPA) uzsāka faktu noskaidrošanas darbību. Uzņēmums turpina pētīt visus iespējamos datu privātuma riskus. Šķiet, ka tas kaut ko atrada, jo Itālija saka, ka ChatGPT ir pārkāpis savus datu aizsardzības noteikumus. Tomēr GDPA neprecizēja, kuri noteikumi tika pārkāpti, vismaz ne publiski. Mēs zinām, ka atvērtajam AI ir 30 dienas, lai atbildētu un risinātu problēmas.
ChatGPT atrodas ES valdības uzmanīgā acīs. ES Vispārējā datu aizsardzības regula (VDAR) faktiski izveidoja īpašu darba grupu, kuras uzdevums ir izpētīt OpenAI un ChatGPT.
Pagājušajā gadā ChatGPT spēja apmierināt Itālijas valdību, tomēr tā vēlas virzīt lietas tālāk. Piemēram, tā vēlas, lai OpenAI ieviestu vecuma ierobežojumus cilvēkiem, kuri to izmanto, kā arī sniegtu lietotājiem iespēju atteikties no uzņēmuma datu izmantošanas.
Šīs ir visas darbības, kuras valsts vēlas veikt, lai nodrošinātu savu lietotāju aizsardzību. Datu privātums ir viena no galvenajām problēmām mūsu mūsdienu mākslīgā intelekta vadītajā pasaulē.