Saprātīgu likumu izstrāde, kas regulē AI, ir viens no grūtākajiem izaicinājumiem, ar ko valdībai jāsastopas. Tas ir kaut kas, ko valdības struktūras joprojām apņem smadzenes. Šodien mēs saņēmām ziņas, ka Baidena administrācija ir tikko spērusi vēl vienu soli uz priekšu šajā darbā. ASV valdība ir atklājusi stingras drošības prasības, kas reglamentē federālās aģentūras, kas izmanto AI rīkus un sistēmas.
Pašlaik mākslīgais intelekts ir viena no jutīgākajām un strīdīgākajām tēmām tehnoloģiju jomā. 2022. gada novembrī mēs pirmo reizi iepazināmies ar ģeneratīvo mākslīgo intelektu, un vairākas valdības ir centušās izveidot likumdevēju, kas to aptver. Tomēr tas ir bijis ilgs process.
Nesen ES spēra pirmo lielo soli, izstrādājot likumus, kas attiecas uz mākslīgo intelektu, un tas padara to par pirmo valdības iestādi, kas to izdarījusi. Uzņēmumiem un valstīm ES ir jāievieš šie likumi tuvāko pāris gadu laikā, nesaskaroties ar sekām.
Turklāt ASV Patentu birojs tikko izlaida atjauninājumu, informējot sabiedrību, ka 2024. gada laikā tā gatavojas izlaist stingrus likumus, kas regulē autortiesības un AI. Tā plāno publicēt šos likumus līdz gada beigām.
ASV valdība publicēja prasības federālajām aģentūrām, kas izmanto AI
Pašlaik vēl ir diezgan agri, lai šīs jaunās aizsargmargas varētu ieviesties, tāpēc mēs visi joprojām domājam, kādas sekas var sagaidīt. Tāpat kā jebkuram valdības regulējumam, federālajām aģentūrām ir vairāki mēneši, lai iedarbinātu riteņus. Tātad šis gabals tiks atjaunināts, ja ASV valdība nāks klajā ar citām AI prasībām.
Pirmā prasība: drošība
Pirmkārt, federālajām aģentūrām, kas izmanto AI rīkus, ir jāpārliecinās, ka šie rīki negatīvi neietekmē Amerikas pilsoņu tiesības vai drošību. Tādējādi rīks nevar apspiest neviena Amerikas pilsoņa konstitucionālās tiesības vai potenciāli novest pie kāda pilsoņa ievainojumiem vai dzīvības zaudēšanas.
Kā AI sistēma var ietekmēt lietotāju tiesības?
Viens no galvenajiem piemēriem ir AI sistēmu izmantošana, lai apdraudētu jebkuras personas privātumu. Aģentūrām nav atļauts izmantot AI rīkus, lai, piemēram, savāktu un noskaidrotu cilvēku biometriskos vai sejas datus.
Vēl viens lielisks piemērs tam būs AI sistēmu atturēšana no visa, kas nodarbojas ar balsošanu. Pašlaik ir 2024. gads, un drīzumā sāksies Amerikas prezidenta vēlēšanas. Tādējādi aģentūras nevar izmantot AI rīkus, lai saskaitītu, savāktu vai citādi ietekmētu balsis balsojumos.
Kā AI sistēma var ietekmēt drošību?
Runājot par drošības ietekmēšanu, ir rīki, kurus nevar izmantot nevienā reālajā pasaulē, kas varētu ietekmēt cilvēku drošību vai dzīvību. Tādējādi aģentūras, kas kontrolē elektriskos tīklus, avārijas sistēmas, ūdeni, transportu, medicīnu utt., nedrīkst izmantot AI rīkus kritiskiem mērķiem.
Pašlaik ģeneratīvais AI joprojām attīstās, tāpēc pastāv liela iespēja, ka AI sistēmas sabojāsies. Piemēram, ja AI sistēma, kas kontrolē pilsētas ūdens apgādi, sabojājas, tai var būt postoša ietekme uz šo pilsētu un cilvēkiem, kas tajā dzīvo.
Ir izņēmums
Ja aģentūra vai organizācija vēlas izmantot mākslīgā intelekta sistēmas šīm funkcijām, tai būs jāievieš konkrēti drošības pasākumi, lai nodrošinātu, ka nebūs negatīvas ietekmes. Ja aģentūra var pareizi pamatot rīka izmantošanu, tā var to izmantot.
Neatkarīgi no tā, kādus aizsardzības līdzekļus izmantos federālās aģentūras, būs viņu pašu ziņā, tāpēc bumba ir viņu pusē. Tomēr viņiem būs līdz decembrim, lai nodrošinātu, ka viss ir vietā, lai neatkarīgi no viņu izmantotajām sistēmām netiktu ietekmēta cilvēku drošība vai tiesības.
Otrā prasība: caurspīdīgums
Otrā no šīm prasībām attiecas uz kaut ko, par ko ASV valdība un pilsoņi ir noraizējušies saistībā ar AI; caurspīdīgums. Ietekmētās aģentūras nevar neizpaust kritisku informāciju par sistēmām, kuras tās izmanto, vai to iespējamo ietekmi uz Amerikas pilsoņiem.
Katru gadu federālajām aģentūrām būs “tiešsaistē jāpublicē savu AI sistēmu saraksts, novērtējums par riskiem, ko šīs sistēmas varētu radīt un kā šie riski tiek pārvaldīti”, sacīja ASV viceprezidente Kamala Harisa. Tas ne tikai nodrošinās, ka valdība zina, ko katrs uzņēmums izmanto, bet arī nodrošinās, ka Amerikas pilsoņi zina, ko aģentūras izmanto.
Pastāv liela problēma ar uzņēmumiem un aģentūrām, kas savu darbību veic aiz slēgtām durvīm. Cilvēkiem, kuru dati apmāca AI modeļus, ir jāzina, ko šīs vienības dara ar saviem datiem. Tāpēc aģentūrām būs jābūt pilnīgi pārredzamām attiecībā uz saviem AI rīkiem.
Tomēr ir izņēmums. Ja informācijas publicēšana apdraud kāda pilsoņa privātumu vai drošību, aģentūrai nebūs jāpublicē pilns ziņojums. Tomēr tai joprojām būs jāpublicē metrika.
Trešā prasība: AI ieskats
Pēdējā no ASV prasībām liek federālajām aģentūrām iegūt atbilstošas zināšanas un ieskatu AI. Tāpēc katrai nodaļai būs jāieceļ galvenais AI virsnieks, lai precīzi pārraudzītu, kā šīs aģentūras izmanto AI. Galvenajiem mākslīgā intelekta darbiniekiem būs dziļas un profesionālas zināšanas par mākslīgo intelektu. Tas varētu palīdzēt valdībai orientēties un mazināt iespējamos riskus.
Līdztekus tam vairākām aģentūrām būs nepieciešamas arī AI pārvaldības padomes. Viņiem tie būs jāsaņem līdz 27. maijam.
Vai tie ir oficiāli likumi?
Tehniski nē. Kādu laiku atpakaļ Amerikas Savienoto Valstu prezidents parakstīja izpildrakstu, lai risinātu jautājumus par lielajiem uzņēmumiem un to AI izmantošanu. Šīs prasības vēl vairāk paplašina izpildrīkojumu un apraksta sīkāku informāciju. Tomēr tie nav oficiāli likumi.
Ja aģentūras vai struktūras neievēros norādītās aizsargmargas, atliek vien redzēt, kāda veida sodu tās saņems, ja vispār saņems. Lai gan tie nav oficiāli likumi, tie joprojām ir Amerikas Savienoto Valstu valdības augstākās iestādes prasības, tāpēc šīm aģentūrām tie būs jāievēro neatkarīgi no tā.