Bijušais OpenAI pētnieks saka, ka uzņēmums pārkāpis autortiesību likumu un iznīcinājis internetu

2023. gada novembrī Sems Altmens tika atlaists no OpenAI izpilddirektora amata, jo valde zaudēja uzticību viņa vadībai. Tikai dažas dienas vēlāk parādījās ziņojumi, kas liecina, ka lēmums bija saistīts ar bažām par iespējamo AI izrāvienu, par kuru daži OpenAI pētnieki brīdināja, ka tas varētu apdraudēt cilvēci. Pārsteidzot gandrīz gadu, un tagad cits bijušais OpenAI darbinieks pauž jaunu kritiku, šoreiz koncentrējoties uz autortiesību pārkāpumiem un to ietekmi uz internetu.

Bijušais OpenAI pētnieks Suchirs Balaji ir paudis bažas par uzņēmuma biznesa praksi. Personīgā emuāra ierakstā Balaji apgalvoja, ka OpenAI neievēro ASV autortiesību likumus. Tas palielina balsu skaitu, kas apšauba uzņēmuma pieejas datu vākšanai likumību un plašāku uzņēmējdarbības modeli.

“Ja jūs ticat tam, kam es ticu, jums vienkārši jāpamet uzņēmums,” Baladži sacīja New York Times.

25 gadus vecais Balaji pievienojās OpenAI 2020. gadā pēc UC Berkeley absolvēšanas un bija daļa no komandas, kas strādāja pie GPT-4. Sākotnēji AI interesēja par tā potenciālu risināt tādas problēmas kā slimību ārstēšana un novecošanās apturēšana, un Balaji pavadīja OpenAI četrus gadus, pirms šovasar aizgāja.

Tagad viņš saka, ka tehnoloģija tiek izmantota tādos veidos, ko viņš vairs neatbalsta, apgalvojot, ka AI uzņēmumi “iznīcina to personu, uzņēmumu un interneta pakalpojumu komerciālo dzīvotspēju, kas radīja digitālos datus, ko izmantoja šo AI sistēmu apmācībai.”

“Taču pēc ChatGPT izlaišanas 2022. gada beigās viņš rūpīgāk pārdomāja, ko uzņēmums dara. Viņš nonāca pie secinājuma, ka tas, ka OpenAI izmanto ar autortiesībām aizsargātus datus, pārkāpj likumu un ka tādas tehnoloģijas kā ChatGPT kaitē internetam, ”ziņoja Times.

Bijušais pētnieks pauž bažas par OpenAI

Šīs nedēļas sākumā Balaji savā vietnē publicēja eseju, kurā viņš sīki izklāstīja, cik daudz ar autortiesībām aizsargātā materiāla no apmācības datu kopām nonāk AI modeļu izvados. Viņa analīze lika viņam secināt, ka ChatGPT rezultāti neatbilst “godīgas izmantošanas” standartiem — juridiskajai koncepcijai, kas atļauj ierobežotu ar autortiesībām aizsargāta satura izmantošanu bez atļaujas.

“Vienīgā izeja no tā visa ir regulējums,” Balaji vēlāk teica Times, norādot uz juridiskajām sarežģītībām, kas izriet no AI uzņēmējdarbības modeļa. Atbildot uz Times rakstu, OpenAI aizstāvēja savu praksi, norādot:

“Mēs veidojam savus AI modeļus, izmantojot publiski pieejamus datus, ievērojot godīgas izmantošanas principus un ar to saistītos principus, un tos atbalsta ilgstoši un plaši pieņemti juridiski precedenti. Mēs uzskatām, ka šis princips ir godīgs pret radītājiem, nepieciešams novatoriem un būtisks ASV konkurētspējai.

Balaji prasības nāk aptuveni gadu pēc tam, kad The New York Times iesūdzēja OpenAI un Microsoft par tā satura izmantošanu bez atļaujas apmācīt AI modeļus. Prasībā tiek apgalvots, ka miljoniem rakstu tika izmantoti, lai izveidotu mākslīgā intelekta sistēmas, kas tagad konkurē tajā pašā tirgū, kur laikraksts.

Times nav viens. Janvārī autoru grupa, tostarp Nikolass Basbenss un Nikolass Geidžs, iesniedza prasību federālajā tiesā, apsūdzot Microsoft un OpenAI viņu darbu izmantošanā bez piekrišanas apmācības nolūkos.

Ir sekojis garš tiesas prāvu saraksts, un vairākas slavenības, mākslinieki, rakstnieki un kodētāji apsūdz OpenAI viņu satura izmantošanā bez atļaujas. Augsta līmeņa prasītāju vidū ir Sāra Silvermena, Ta-Nehisi Koutss, Džordžs RR Martins, Džonatans Franzens, Džons Grišams, Izmeklējošo ziņojumu centrs, The Intercept un vairāki laikraksti, piemēram, The Denver Post un The Chicago Tribune, kā arī vairāki YouTube lietotāji.

Lai gan sabiedrības reakcija ir bijusi neviennozīmīga, ar zināmu apjukumu un apātiju, kritiķu skaits, kuri pauž bažas par AI nozares uzņēmējdarbības praksi, turpina pieaugt. Slavenības, tehnoloģiju ētikas speciālisti un juridiskie eksperti arvien vairāk apšauba nozari, kas strauji paplašinās, vienlaikus ieviešot jaunas un sarežģītas juridiskas un ētiskas problēmas.