Meta vēlas, lai jūs atklātu, kad publicējat AI saturu, pretējā gadījumā tas var to noņemt

No tā nevar izvairīties; AI radīts saturs diezgan lielā mērā pārņem internetu. Tādi uzņēmumi kā Google un Adobe cenšas vieglāk noteikt, kad saturs tiek ģenerēts, izmantojot AI. Saskaņā ar jauno ziņojumu Meta vēlas, lai lietotāji atklātu, kad viņi publicē AI saturu. Ja nē, viņi riskē, ka tas tiks noņemts,

Ir grūti nokļūt jebkurā vietā internetā, neredzot kaut kādu AI saturu. Instagram ir pārpilns ar mākslīgā intelekta ģenerētiem attēliem, YouTube ir ielādēts ar AI ģenerētiem videoklipiem utt. Tāpēc uzņēmumi meklē rīkus, lai labāk noteiktu, vai saturs ir sintētisks.

Google ir ūdenszīmju sistēma SynthID, lai noteiktu, kad cilvēki veido saturu, izmantojot tā attēlu ģeneratoru. Uzņēmums to paplašināja arī uz audio failiem. Meta ir arī ūdenszīmju sistēma, kas attiecas uz attēliem, kas izveidoti ar tās Imagine AI ģeneratoru. Daži mākslīgā intelekta radītie mediji acīmredzami ir mākslīgā intelekta radīti, taču liels daudzums mūsdienās publicētā satura var maldināt cilvēkus.

Tā ir problēma kā ir. Tomēr 2024. gads ir vēlēšanu gads, un tas padara AI par labvēlīgu augsni dezinformācijai un maldinošiem attēliem. Tāpēc ir ļoti svarīgi, lai šie uzņēmumi atvieglotu AI satura identificēšanu.

Meta vēlas, lai lietotāji atklātu, ja viņi publicē AI saturu

Meta pieder Facebook, Instagram un Threads. Šīs ir trīs lietojumprogrammas, kurās ir redzēts ļoti daudz AI radīta satura. Tas ir tiktāl, ka cilvēki baidās, ka tas pārsniegs šīs platformas. Meta strādā pie rīkiem, lai palīdzētu cilvēkiem noteikt, kad AI tika izmantots satura veidošanai. Tas tiks piemērots saturam, kas izveidots, izmantojot Google, Adobe, MidJourney utt. Radīt rīkus, kas atklās mākslīgi izveidotu saturu, ir milzīgs izaicinājums.

Uzņēmums lūdz palīdzību no cilvēkiem, kuri publicē ziņas, lai palīdzētu identificēt AI saturu. Uzņēmums sāks pieprasīt cilvēkiem atklāt, vai saturs ir izveidots, izmantojot AI. Ja viņi to neizdarīs un Meta konstatē, ka tas ir AI radīts, radītājam var rasties dažas sekas. Niks Klegs, Meta globālo lietu prezidents, sacīja, ka, ja lietotājs neatklāj savu AI saturu, tad “attiecīgo sodu diapazons būs pilns no brīdinājumiem līdz noņemšanai.”

Tas ir solis pareizajā virzienā

Uzņēmumi, kas mums piegādā rīkus, lai izveidotu mākslīgā intelekta radītu saturu, tagad piedāvā rīkus, kas palīdz identificēt saturu. Tas noteikti ir solis pareizajā virzienā, jo nevar pateikt, kādu ietekmi AI vispārīgais kontakts atstās uz tehnoloģiju kopienu. Protams, nekaitīgi sociālo mediju ziņas un AI filtru pašbildes nav kaitīgas. Tomēr, ja mākslīgā intelekta radītais saturs kļūs pārāk reāls, var būt dažas nopietnas sekas.

Mēs jau esam redzējuši, ka mākslīgais intelekts tiek izmantots, lai atdarinātu sabiedrībā zināmas personas un liktu tām darīt vai teikt nepatīkamas lietas. Viens piemērs ir pašreizējās pretrunas ar Teilores Sviftas AI ģeneratora pornogrāfiju.

Spēja pienācīgi kontrolēt šo saturu ir viena no vissvarīgākajām lietām, ko tehnoloģiju uzņēmumi var darīt. Ja viņi nometīs bumbu šajā jautājumā, mums būs tikai jāgaida un jānoskaidro sekas