Openai ir iesniedzis politikas priekšlikumu ASV valdībai, mudinot aizliegt AI modeļus, ko izstrādājuši ĶTR saistītās vienības. Uzņēmums izcēla ķīniešu AI Lab Deepseek, to apzīmējot kā “valsts kontrolētu” un radot bažas par drošības riskiem un iespējamo intelektuālā īpašuma zādzību.
Openai mēģinājums nogalināt sacensības?
Priekšlikums ir izraisījis debates par protekcionismu, globālo taisnīgumu AI attīstībā un intelektuālā īpašuma izmantošanas ētiskās sekas AI apmācībā. Openai mudināja ASV valdību apsvērt AI modeļu aizliegšanu no ĶTR atbalstītajām vienībām. Pārcelšanās ir izraisījusi debates par protekcionismu, intelektuālo īpašumu un globālo taisnīgumu AI attīstībā.
“Virzot demokrātisko AI, Amerika sacenšas ar ĶKP, kas ir apņēmies kļūt par pasaules līderi līdz 2030. gadam. Tāpēc nesenā DeepSeek R1 modeļa izlaišana ir tik ievērības cienīga – nevis tā spēju dēļ (R1 argumentācijas spējas, kaut arī iespaidīgi, labākajā gadījumā ir līdzvērtīgi vairākiem ASV modeļiem), bet kā mērogojošam šajā konkursā.
Kāds ir Openai priekšlikumā?
15 lappušu priekšlikums bija daļa no Baltā nama aicinājuma publiski ieguldīt AI rīcības plānā. Uzņēmums apgalvo, ka DeepSeek modeļi, ieskaitot tā R1 “argumentācijas” modeli, ir neaizsargāti pret privātuma un drošības riskiem. Bažas? DeepSeek darbojas saskaņā ar Ķīnas likumiem, kas varētu piespiest to dalīties ar lietotāju datiem ar valdību. Openai uzskata, ka “ĶTR ražotu” modeļu aizliegšana valstīs, kas klasificētas kā “1. līmenis” saskaņā ar pašreizējiem eksporta noteikumiem, mazinātu šos riskus un palīdzētu novērst intelektuālā īpašuma zādzības.
“Tā kā DeepSeek vienlaikus ir valsts subsidēts, valsts kontrolēts un brīvi pieejams, izmaksas tā lietotājiem ir viņu privātums un drošība, jo DeepSeek saskaras ar prasībām saskaņā ar Ķīnas likumiem, lai ievērotu prasības pēc lietotāja datiem un izmanto to, lai apmācītu spējīgākas sistēmas ĶKP lietošanai. Viņu modeļi arī labprāt ģenerē arī nelikumīgu un kaitīgu darbību, piemēram, identitātes krāpšanu un intelektuālā īpašuma zādzībuatspoguļo to, kā ĶKP uzskata Amerikas IP tiesību pārkāpumus kā funkciju, nevis kļūdu ”
Bet priekšlikums ar to neapstājās. Openai pauda bažas par Ķīnas “neierobežotu piekļuvi datiem”, brīdinot, ka ASV varētu zaudēt AI sacīkstes bez godīgas lietošanas autortiesību likumiem. Uzņēmums arī kritizēja šogad ieviesto 781 valsts līmeņa AI likumprojektu pieaugumu, apgalvojot, ka tie varētu apslāpēt Amerikas inovācijas un vājināt ASV pozīcijas pret Ķīnas AI ambīcijām.
Openai virzās uz vairāk nekā tikai ierobežojumiem. Priekšlikums arī iestājas par palielinātu infrastruktūras ieguldījumu, autortiesību reformu un lielāku piekļuvi valdības datu kopām AI attīstībai.
Slēgtās vai atvērtā pirmkoda debates
Viens aspekts, kas izraisīja kritiku, ir Openai slēgtā avota pieeja. Kaut arī Openai saglabā savus modeļus patentētus, tā aktīvi prasa ierobežojumus pret atvērtā pirmkoda modeļiem, piemēram, DeepSeek. Šis kontrasts nav palicis nepamanīts. Kritiķi apgalvo, ka Openai cenšas ierobežot konkurenci, atzīmējot konkurentus kā drošības draudus, savukārt tā pati slēgtā avota nostāja saskaras ar reakciju uz caurspīdīguma un inovāciju ierobežošanu.
Turpretī DeepSeek piedāvā atvērtā koda modeļus, ļaujot plašākai piekļuvei izstrādātājiem un pētniekiem. Openai nostājas ironija ir radījusi jautājumus par to, vai regulējošo rīcību motivē patiesas drošības problēmas vai vēlme novērst konkurenci.
DeepSeek pieaugošā ietekme
DeepSeek nav tikai vēl viens AI modelis – tas janvārī veidoja virsrakstus pēc tam, kad Deepseek pārspēja Chatgpt App Store, nosūtot triecienviļņus caur tehnoloģiju krājumiem. Buzz ap DeepSeek sākās decembrī pēc tam, kad tā V3 modelis pārspēja ASV augstākos AI modeļus, ieskaitot Meta’s Llama 3.1, Openai GPT-4O un Alibaba Qwen 2.5 trešo personu etalonos-tas viss par ievērojami zemākām izmaksām.
Daži spekulē, ka Openai agresīvā nostāja izriet no bailēm, ka viņu pārspēj liesāks, ātrāk kustīgs konkurents. DeepSeek darbojas tikai ar 160 darbiniekiem, salīdzinot ar Openai 2000+, tomēr tas ir guvis ievērojamus soļus.
Padziļināt plaisu ar DeepSeek
Openai jau iepriekš ir apsūdzējis DeepSeek par “destilēšanas” zināšanām no saviem modeļiem, pārkāpjot pakalpojumu sniegšanu. Bet DeepSeek marķēšana kā ĶTR atbalstīta ir ievērojama eskalācija.
Nav pilnīgi skaidrs, vai Openai bažas ir vērstas uz Deepseek API, tā atvērtajiem modeļiem vai abiem. DeepSeek atvērtie modeļi neietver mehānismus, kas ļautu Ķīnas valdībai iegūt lietotāju datus. Faktiski tādi uzņēmumi kā Microsoft, Matlexity un Amazon šos modeļus rīko savā infrastruktūrā.
DeepSeek atgrūž atpakaļ
DeepSeek saites ar Ķīnas valdību ir drūmas. Uzņēmums sāka kā spin-off no High-Flyer, kvantitatīvā riska ieguldījumu fonda. Kaut arī nav smagu pierādījumu, kas tieši saistītu DeepSeek ar Ķīnas valdību, tās dibinātājs Liangs Venfengs pirms dažām nedēļām tikās ar Ķīnas līderi Sji Dzjiņpingu – detaļu, kas ir izraisījusi vairāk rūpīgu pārbaudi.
Wenfeng ir izteicies par Deepseek neatkarību, distancējot uzņēmumu no Ķīnas lielās tehnoloģijas un RK naudu. Viņš uzstāj, ka laboratorija ir liesa, uz misiju orientēta, un to neveic komerciāli spiedieni.
“Dibinātājs ir turīgs un ir pietiekami apņēmies, lai tas būtu noliecies flotes zīmoga stilā, lai sasniegtu AGI.”
Wenfeng uzsvēra, ka uzņēmums nav koncentrējies uz monetizāciju, bet gan uz izrāvieniem AI.
“Mēs esam revolūcijas agrīnajā stadijā. Uzņēmumiem jākoncentrējas uz izrāvieniem, nevis monetizāciju. ”
Kāpēc tas ir svarīgi
Openai aicinājums aizliegt ķīniešu atvērtā koda AI modeļus, piemēram, DeepSeek, nāk, jo tas turpina aizstāvēt savu slēgtā avota pieeju. Kritiķi ir norādījuši uz ironiju: atbalsta normatīvos izņēmumus, vienlaikus virzot ierobežojumus atvērtā koda konkurentiem.
Šis solis rada plašākus jautājumus par globālo konkurenci, intelektuālā īpašuma tiesībām un līdzsvaru starp nacionālo drošību un atvērtām inovācijām. Ar savu 500 miljardu ASV dolāru lielu Stargate projektu un pieaugošo ietekmi Vašingtonā Openai ne tikai veido AI attīstības nākotni, bet arī noteikumus, kas to regulē.
Openai-reakcijas-OSTP-NSF-RFI-NOTICE-ATKĀRTOŠANA-INFORMĀCIJA-ON-AN-Arnialial-Intelligence-AI-Action-Plan-plāns