Vai valdībām vajadzētu aizliegt AI ģenerētiem cilvēkiem apturēt sociālās uzticības sabrukumu?

2025. gada maijā miljoniem cilvēku redzēja Billiju Eilišu Met Gala.

Vai arī tā viņi domāja.

Popzvaigznes fotoattēli un video pārsteidzošā halātā kļuva vīrusu vīruss. Daži fani murgoja. Citi ņirgājās. Plašsaziņas līdzekļi to paņēma, ietekmēja ietekmētāji, un internets izdarīja to, ko tas dara vislabāk: reaģēt.

Bet bija viena problēma – Billie Eilish tur nebija.

“Es tur nebiju. Tā ir AI. Man tajā naktī bija izrāde Eiropā. Ļaujiet man būt,” viņa ievietoja.

Tas, kas izskatījās īsts, bija pilnīgi viltus. Un tas visus apmānīja.

Un tas nav tikai par slavenību tenkas.

Šā gada sākumā bijušais ASV prezidents Donalds Trumps dalījās ar tēlu par patiesību, kas ir sabiedriska vīrietis, kurš ir kļūdaini deportēts – abrego Garsija – ar tetovējumiem, kas fotografēti uz rokas. Vēstules “MS13” tika digitāli mainītas, lai veicinātu politisko stāstījumu. Tā nebija taisnība, bet tas bija pietiekami pārliecinoši, lai iegūtu vilci.

“Mēs sasniedzam punktu, kurā kļūst neiespējami pateikt atšķirību starp īstu fotoattēlu vai video un viltojumu, vienkārši apskatot to,” sacīja Yuval Noa Harari.

DeepFakes un realitātes nāve

AI un mašīnmācīšanās izmantošana viltus cilvēku videoklipu izveidošanai nav jauna. Pētnieki un bārkstis hobijisti gadiem ilgi rada DeepFakes. Bet ar tādiem rīkiem kā Openai’s Sora un Google Veo 3, plaisa starp sintētiskajiem un īstajiem cilvēkiem tiek ātri slēgta. Tas, kas agrāk prasīja tehniskās prasmes un laika, tagad prasa dažas uzvednes, un rezultāti ir šokējoši reāli.

Nesenā Vaterlo universitātes pētījumā atklājās, ka cilvēki var atšķirt tikai reālus attēlus no AI ģenerētiem 61% laika, kas ir tikpat labāks par monētas flip. Rezultāti rada nopietnas bažas par to, cik daudz mēs varam uzticēties tam, ko mēs redzam, un izcelt pieaugošo vajadzību pēc rīkiem sintētiskā satura noteikšanai.

Viltus cilvēki, viltus notikumi, viltus identitātes, ko visi rada AI, kas neatšķiras no realitātes.

Un, ja mēs vairs nevaram uzticēties tam, ko redzam, kas notiek ar mūsu sabiedrības pamatiem?

Mēs esam nonākuši sintētiskās realitātes laikmetā, un tas rada vienu steidzamu jautājumu:

Vai AI radītiem cilvēkiem vajadzētu aizliegt, piemēram, viltota nauda, ​​lai izvairītos no sociālās uzticības sabrukuma?

Harari veic asu salīdzinājumu:

“Valdībām bija ļoti stingri likumi pret naudas faking… jo viņi zināja, ka, ja jūs atļaujat apritēt viltus naudu, cilvēki zaudēs uzticību naudai, un finanšu sistēma sabruks.”

Mūsdienās ar instrumentiem, kas ir pieejami ikvienam, kam ir klēpjdators, ir iespējams radīt viltus cilvēkus, kas pāriet kā reāli, no sejas izteiksmēm līdz balss tonim.

  • Mēs esam redzējuši viltus imigrantu fotoattēlus, kas virza viltus stāstījumus.
  • AI ģenerētie ietekmētāji veido šādus turpinājumus nepatiesu izlikšanās laikā.
  • DeepFake uzdošanās par uzņēmumiem un ģimenēm ir krāpšana.

Harari brīdinājums samazinās:

“Sociālā uzticēšanās ir sabiedrības pamats. Ja cilvēki nevar uzticēties, ka citi cilvēki ir tie, kas viņi saka, ka viņi ir, sākot no politikas līdz uzņēmējdarbībai un beidzot ar ikdienas dzīvi.

Paralēles starp viltotu valūtu un AI ģenerētiem cilvēkiem

Viltota nauda AI ģenerēti cilvēki (DeepFakes)
Grauj ekonomisko uzticību Grauj sociālo/pilsonisko uzticību
Izveidots, lai maldinātu Bieži izveidots, lai maldinātu
Aizliegts tieši Lielā mērā neregulēts vai brīvi pārvaldīts
Nepieciešama autentifikācija Nepieciešama līdzīga autentifikācija vai izsekojamība

Abi destabilizē sabiedrības pamatus – vienu ekonomiski, otrs sociāli. Ja mēs aizsargājam finanšu sistēmas ar likumu, mums vajadzētu aizsargāt patiesības sistēmas vienādi

Vai valdībām vajadzētu iekļūt un aizliegt AI ģenerētus cilvēkus?

Tā vairs nav teorētiska saruna.

Ja sintētiskos cilvēkus var izmantot, lai maldinātu, manipulētu vai uzdotos par skatienu mērogā, mums ir problēma, kas ir jārisina likumiem.

Harari to skaidri saka:

“Ja jūs atļaujat cirkulāciju viltus cilvēkus, cilvēki zaudēs uzticību citiem cilvēkiem – un sabiedrība sabruks.”

Tāpat kā valdība aizliedza viltus naudu, lai aizsargātu ekonomiku, vai viltus cilvēku radīšanai būtu jāaizliedz aizsargāt sociālo uzticēšanos?

Kas uzskatāms par viltus? Kur mēs novilkam līniju? Un kā mēs neļaujam lietām turpināt spirālveida?

Kāpēc pilnīgs aizliegums varētu būt pārāk ekstrēms

AI ģenerētu cilvēku aizliegšana tieši varētu apdraudēt visu starta segmentu. Pēdējā gada laikā ir parādījušies desmitiem jaunu uzņēmumu, piedāvājot AI ģenerētus pārstāvjus, UGC video, klientu apkalpošanas iemiesojumus, ietekmētājus un video satura veidotājus. Šie jaunuzņēmumi brauc ar sintētisko plašsaziņas līdzekļu inovāciju vilni, veidojot instrumentus, kas aizrauj līniju starp cilvēku un mašīnu, bieži ar reālu biznesa vilci.

Ja valdības uzliek stingrus aizliegumus bez nianses, daudzus no šiem uzņēmumiem varētu būt spiesti pilnībā slēgt vai pagriezties. Investori varētu atvilkt atpakaļ, dibinātāji varētu saskarties ar normatīvo nenoteiktību, un plašāka inovāciju ekosistēma varētu apstāties. Kaut arī daži no šiem rīkiem ir neaizsargāti pret ļaunprātīgu izmantošanu, citi vienkārši cenšas samazināt izmaksas vai demokratizēt piekļuvi video producēšanai.

Izaicinājums ir novilkt līniju, kas aizsargā sabiedrību bez inovācijas nožņaugšanās.

Ne katrs sintētisko cilvēku lietojums ir kaitīgs.

Segu aizliegums varētu:

  • Bloķēt likumīgus lietošanas gadījumus filmās, azartspēlēs, izglītībā un pieejamībā.
  • Virziet ļaunprātīgu izmantošanu vēl pazemē anonīmos vai ārzonu modeļos.
  • Jauc šo jautājumu un, iespējams, cenzējiet radošumu vai parodiju.

Pat Harari, vienlaikus aicinot uz maldināšanas aizliegumiem, nestrīdas pret AI. Viņš aicina ierobežot izlikties par cilvēku.

Punkts nav aizliegt visus AI cilvēkus. Tas ir apturēt tos, kas domāti maldināt.

Ko mēs varam darīt tā vietā?

Ja pilnam aizliegumam nav jēgas, mums joprojām ir vajadzīgas spēcīgas aizsargmargas:

1. Padariet atklāšanu obligātu:

Jebkuram AI ģenerētam cilvēka saturam vajadzētu būt ar skaidru etiķeti gan ekrānā, gan zem pārsega.

2. Aizturiet platformas atbildīgas:

Sociālajiem tīkliem un izdevējiem ir jāapzīmē viltus cilvēku saturs, kā viņi dara ar surogātpastu vai izkrāpšanu.

3. Kriminālatbildība par maldinošu izmantošanu:

Izmantojot AI, lai uzdotos par kādu bez piekrišanas – neatkarīgi no tā, vai tas ir reāls vai sastādīts – būtu jāizturas kā pret identitātes zādzību.

4. Cepiet digitālos pirkstu nospiedumos:

AI rīkiem, kas ģenerē cilvēku līdzīgu saturu, jāievieš neredzami paraksti, lai izsekotu izcelsmei.

5. Nav atļauts maskēt:

AI sistēmām nekad nevajadzētu izlikties par personu sarunā, mārketingā vai plašsaziņas līdzekļos. Periods.

Neviens no šiem neapturēs katru DeepFake. Bet viņi atgriežas pret vardarbību un nosūta skaidru vēstījumu: patiesībai ir nozīme.

Kāpēc valdībai ir jārīkojas

Tas nav par pārmērīgu regulēšanu. Runa ir par robežas novilkšanu starp patiesību un fantastiku.

Patiesie draudi nav AI. Tas ir AI izlikšanās par cilvēku.

Tāpat kā viltus nauda grauj ekonomiku, viltus cilvēki, uzticoties institūcijām, attiecībās, patiesībā.

Lūk, ko valdības var darīt tieši tagad:

  1. Padariet nelikumīgu uzdošanos par cilvēku – reālu vai izdomātu – bez atklāšanas.
  2. Nepieciešamas etiķetes uz AI ģenerētām sejām un balsīm.
  3. Smalks vai sodiet platformas, kas ļauj sintētiskiem cilvēkiem izplatīties bez uzraudzības.
  4. Izturieties pret ļaunprātīgu dziļumu, piemēram, digitālu viltošanu vai uzmākšanos.

Galīgā doma

Mēs tagad atrodamies brīdī, kad slavenībai ir jānoraida, ka tā nav notikusi pasākumā, kuru viņa nekad nav apmeklējusi… kad prezidents dalās ar viltotu fotoattēlu, lai izteiktu politisku punktu… kad mēs nevaram pateikt, kurš ir īsts un kurš nav…

Mēs vairs nerunājam par nākotni. Mēs tajā dzīvojam.

Ja mēs nevelkam robežu tagad – likumā, tehnoloģijās, sabiedrības cerībās – pati par sevi varētu kļūt obligāta.

🚀 Vai vēlaties, lai jūsu stāsts būtu redzams?

Iegūstiet tūkstošiem dibinātāju, investoru, PE firmas, tehnoloģiju vadītāju, lēmumu pieņēmēju un tehnoloģiju lasītāju priekšā, iesniedzot savu stāstu Techstarts.comApvidū

Piedāvājiet