DeepFake maldināšana: kā AI pārraksta realitāti (un kā cīnīties)

Mākslīgā intelekta uzplaukums pārsteidza tehnoloģiju nozari. AI ieviešanas rezultātā tika iegūti daudzi pozitīvi rezultāti, piemēram, nozīmīgi sasniegumi galvenajās tehnoloģijās un iespaidīgu rīku izstrāde, kas iepriekš šķita neiespējami. Tomēr tas arī radīja dažus izaicinājumus, kurus gadus vēlāk joprojām tiek mēģināts pareizi risināt. Scam metodes vai maldinājumi, kuru pamatā ir AI darbināmi DeepFakes, visvairāk satraucošākajā sarakstā ieņem priviliģētu vietu.

Viens no galvenajiem AI tikumiem ir tas, kas, savukārt, ir radījis arī vienu no lielākajiem trūkumiem. Mēs runājam par stimulu attīstības tempā tehnoloģiju nozarē. Lai arī tas pats par sevi ir pozitīvs nozarei, tas ir radījis regulatorus. Tie paši AI uzņēmumi ir arī pieķērušies problēmai, jo ne visiem no tiem ir rīki, kas viņiem ļauj precīzi noteikt, kad fails ir DeepFake, un paziņo lietotājam.

Kas ir DeepFake?

Varbūt jūs joprojām neesat pilnībā skaidrs, kas ir DeepFake. Būtībā tas ir AI modeļu radītais saturs, kurā cilvēka seja vai ķermenis tiek digitāli mainīts, parasti to uzklājot uz kāda cita. Tādā veidā upuris šķiet iesaistīts situācijās, kad viņi nekad nebija. Tas attiecas arī uz audio failiem, kur ļaunprātīgi aktieri “klonē” kāda balsi, lai liktu viņiem pateikt visu, ko viņi vēlas.

Pareizās rokās šāda veida rīki ir diezgan noderīgi un ļauj pilnībā izmantot savu radošumu. Tomēr, tā kā AI DeepFakes ir kļuvuši arvien reālāki, ļaunprātīgi aktieri ir sākuši tos izmantot izkrāpšanai.

Sākotnēji AI ģenerētos attēlos bija acīmredzamas kļūdas, padarot tos viegli identificējamas ar cilvēka aci. Jums vienkārši bija jāskatās uz tādām lietām kā pirksti; Jā, rokas zīmēšana ir grūti pat spēcīgai AIS. Tomēr, attīstoties ģeneratīviem AI modeļiem, izlaide ir kļuvusi arvien reālāka. Mūsdienās daudzi AI ģenerēti attēli nav atšķirami no realitātes. Faktiski mēs varētu teikt, ka jūs varat vieglāk identificēt AI ģenerētus mākslas darbus nekā AI ģenerēts fotoreālistisks attēls vai video.

DeepFake rīki tagad ir pieejami visiem, lai labāk un sliktāk

It kā ar to nebūtu pietiekami, uzņēmumi nav apmierināti tikai ar attēlu ģenerēšanas rīkiem. Pēdējos gados mēs pat esam redzējuši video ģenerācijas modeļus ar iespaidīgiem rezultātiem. Šomēnes Bytedance-Tiktokas veikts uzņēmums-lika AI video ģenerācijas modeli ar visreālākajiem rezultātiem, kādus mēs jebkad esam redzējuši. Modelis, ko sauc par Omnihuman-1, sola video DeepFakes līdz 10x labākam nekā iepriekš. Mēs runājam par neticamu paaudžu kvalitātes lēcienu, un mēs katru gadu redzēsim tādas lietas. Zemāk varat redzēt nelielu piemēru, uz ko ir spējīgs Omnihuman-1.

Uzlabota DeepFakes un AI rīka demokratizācija ir noveduši pie tā, ka vairāk cilvēku izmanto šīs platformas. Studenti var uzskatīt, ka tie ir noderīgi, lai iegūtu papildinošus attēlus projektiem vai prezentācijām. Mākslinieki var gūt iedvesmu, lai sāktu strādāt. Jūs varat ģenerēt attēlu tikai tāpēc, lai izklaidētos arī ar draugiem.

Bet kas notiek, kad spēlē ļaunprātīgi aktieri? Maldināšana, manipulācijas, izspiešana… būtībā visas jau pastāvošās izkrāpšanas formas, bet AI DeepFakes daudz atviegloja.

Incidenti, kas saistīti ar AI darbināmiem DeepFake krāpniecības mēģinājumiem

Vairākos kontekstos ir bijuši neskaitāmi izkrāpšanas gadījumi, kad AI DeepFakes ir bijuši varoņi. Atgādina.ai ir milzīga incidentu datu bāze, kas saistīta ar ģeneratīvas AI izmantošanu. Starp pēdējiem gadījumiem ir krājumu vai kriptogrāfijas aktīvu veicināšana, izmantojot investora Vijay Kedia seju un balsi. Ir arī ļoti bieži izmantot Elona Muska attēlu videoklipos, kur viņš it kā reklamē kriptovalūtu. Praktiski katrs uzlauzts YouTube kanāls parāda to pašu videoklipu ar “Elon Musk”, kurš mēģina izkrāpt cilvēkus, pieprasot naudu vai kriptozes.

Vēl viens būtisks risks, kas saistīts ar DeepFakes, ir potenciālie sextorction gadījumi. Šī ir prakse, kurā ļaunprātīgas trešās puses rada viltus plikus, lai mēģinātu šantažēt cilvēkus, draudot tos publiski izplatīt vai nosūtīt ģimenēm. Pusaudži parasti ir šo situāciju galvenais mērķis, jo viņi, visticamāk, mijiedarbojas ar svešiniekiem sociālajos tīklos. Tādas platformas kā Instagram ir veikuši pasākumus, lai mēģinātu apturēt šāda veida mijiedarbību. Tomēr pusaudža ekspozīcija sākas brīdī, kad viņi nolemj tērzēt ar svešinieku sociālajos medijos.

Ir arī tie, kas izmanto DeepFakes, lai mēģinātu manipulēt ar sabiedrisko domu. Šiem gadījumiem parasti ir vairākas izcelsmes, lai gan tie bieži rodas no politiskās sfēras. Piemēram, slikti aktieri var manipulēt ar videoklipiem, lai mudinātu balsot par vai pret kandidātu vēlēšanās. Šie videoklipi var mēģināt panākt, lai konkrētais kandidāts izskatās slikti vai, gluži pretēji, cilvēku acīs izskatās ārkārtīgi labi.

Elona Muska klasiskā DeepFake uzlauztajos YouTube kanālos (avots: BBC)

Līdzīgi ir gadījumi, kad cilvēki kā instrumentu naida izplatīšanai izmanto DeepFake attēlus vai videoklipus. Ir manipulētu multimediju gadījumi, lai mēģinātu radīt nepatiku pret noteiktu kopienu vai grupu. Šie videoklipi var parādīt cilvēkiem, sakot kaut ko, ko viņi nekad nav teikuši, vai darot lietas, ko viņi nekad nav izdarījuši.

Pateicoties DeepFake spēkam, uzdošanās ir vēl viena iespēja AI laikmetā. Līdzināt.ai ir uzskaitīts gadījums no februāra vidus, kad krāpnieki uzdodas par likumīgiem pretenziju turētājiem. AI rīki ļāva viņiem izveidot reālistiskus videoklipus, kas uzdodas par citiem, ļaujot viņiem nozagt apmēram 5,6 miljonus dolāru aktīvos. Šajā gadījumā krāpniekiem bija arī daži personas dati par upuriem, kas, iespējams, tika iegūti caur sociālo inženieriju. Tāpēc šis scenārijs apvieno DeepFakes risku ar nepieciešamību aizsargāt visu jūsu personisko informāciju.

Cilvēki arvien vairāk meklē veidus, kā noteikt DeepFakes

Ir neskaitāmi gadījumi, kad DeepFakes tiek izmantoti, lai mēģinātu maldināt, izkrāpt vai apdraudēt. Tātad cilvēkiem jābūt arvien piesardzīgākam attiecībā uz multimediju saturu, ko viņi redz internetā. Faktiski pieaugošās bažas jau tiek atspoguļotas statistikā. Tiešsaistes meklējumi, kas saistīti ar “DeepFake attēli2024. gadā visā pasaulē palielinājās par 15%. Daži no populārākajiem saistītajiem meklēšanas vienumiem bija “Kā noteikt DeepFake attēlus”Un“reāli pret AI ģenerētiem attēliem. Tātad cilvēku pieaugošās rūpes ir reālas.

Mēģinājumi ar mānīšanu vai izkrāpšanu, pamatojoties uz AI DeepFakes, iespējams, tikai palielināsies tikai no šī brīža. Mūsdienās pat viedtālruņiem ir lietotnes, kas ļauj ģenerēt šāda veida saturu. Turklāt pats viedtālrunis ir ierīce, kas atvieglo manipulētu video vai attēlu izplatīšanu. Tas padara to par divkāršu zobenu mākslīgā intelekta laikmetā.

AI DeepFakes krāpniecības viedtālruņi

Pat jūs varētu darboties kā “slikts aktieris” – bez samaņas būtības. Jums nav nepieciešams izveidot konkrētu DeepFake failu. Viss, kas jums jādara, ir saņemt manipulētu attēlu, video vai audio un koplietot to ar saviem kontaktiem vai sociālajos tīklos, it kā tas būtu īsts. Tas bieži nav 100% jūsu vaina, jo, kā jau teicām iepriekš, DeepFake saturs var būt ārkārtīgi reālistisks.

Lai izvairītos no gadījumiem, kad jūs darbojaties kā “DeepFake izplatītājs”, nezinot to vai kritiet par iespējamām izkrāpšanām, kuras reklamē slikti dalībnieki-kas pat varētu pakļaut jūsu drošību,-uz to ir jārīkojas uz uzņēmumiem. Galu galā viņi piedāvā rīkus, lai izveidotu šāda veida saturu. Tātad viņiem ir arī iekšējā atbildība atvieglot veidus, kā to noteikt.

“Satura akreditācijas dati” un “Synthid” cenšas palielināt caurspīdīgumu ģeneratīvās AI laikmetā

Tehnoloģiju nozare šajā situācijā nav palikusi statiska. Pieaugošie nevēlamie incidenti, kas saistīti ar DeepFakes, noveda pie tā, ka tiek dzimusi koalīcija pēc satura izcelsmes un autentiskuma (C2PA). No šīs komitejas bija dzimis “Satura akreditācijas dati”, standarts, kas meklē caurspīdīgumu ģeneratīvās AI laikmetā. “Satura akreditācijas dati” būtībā integrē un identificē īpašus metadatus ar Ai-Manipulētiem attēliem, lai tos identificētu kā tādus.

Lai gan tas izklausās vienkārši un ātri īstenojams, tas līdz šim nav bijis. Tas ir tāpēc, ka gan ierīču ražotājiem, gan AI izstrādātājiem ir jāpieņem standarts. Tas padara procesu lēnu, it īpaši, salīdzinot ar mākslīgā intelekta spēju evolūcijas tempu. Pagājušajā gadā Sony uzsāka Alpha 1 II vadošo kameru ar atbalstu satura akreditācijas datiem. Jaunākā Samsung Galaxy S25 sērija ir saderīga ar standartu.

2024. gada septembra vidū Google paziņoja par iebraukšanu C2PA komitejā. Mountain View gigants ieguldīs savus resursus un pieredzi, lai mēģinātu paplašināt rīku klāstu, kas atvieglo caurspīdīgumu AI laikmetā. Google ir “sintezēts” kā sava sistēma, lai identificētu rediģētu saturu, izmantojot AI darbināmus rīkus. Faktiski šomēnes uzņēmums paziņoja, ka fotoattēli, kas ģenerēti caur “Reimagine”, Google Photos’s Magic Editor Suite funkcijai, būs sintezēta AI ūdenszīme. “AI ūdenszīme” būs pieejama sadaļā “AI informācija” fotoattēla/video detaļas.

Google fotoattēlu AI informācijas sadaļa
Attēla kredīts: Google

Tas nozīmē, ka SynthID ir mazāk spējīgs standarts nekā satura akreditācijas dati. Pašlaik viedtālruņu nozarē Samsung ir uzņēmies caurspīdīgumu attiecībā uz DeepFakes, integrējot satura akreditācijas datus dabiski. Neviens cits tālruņa zīmols to nav izdarījis līdz šim, tāpēc tas ir liels solis. Atliek redzēt, vai satura akreditācijas dati nonāks vecākajās Galaxy ierīcēs, izmantojot programmatūras atjauninājumus.

Padomi, kā izvairīties no krišanas par AI DeepFake krāpniecību

Lai gan daudzas DeepFakes var neatšķirties no realitātes, ir daži pasākumi, kurus varat veikt pats, lai izvairītos no tā, ka viņi tām nonāktu upurā. Pirmais ir palikt skeptiskam plašsaziņas līdzekļu saturam, kas saistīts ar sabiedriskām personām. Ja aktieris veicina viltotu kriptovalūtu vai politiķis atrodas sirreālā situācijā, jūsu pirmajai reakcijai vajadzētu būt šaubām par faila autentiskumu.

Ja saturs, domājams, nāk no konkrētas sabiedrības, pārbaudiet viņu sociālo mediju rokturus. Bieži vien sabiedrisko personu video ir iegūti no viņu pašu sociālo mediju kontiem. Ja jūs nevarat atrast saturu viņu sociālo mediju kontos, palieciet modrs. Jums vajadzētu arī iespējot AI satura identifikācijas funkcijas ierīcē un lietotnēs. Ir gadījumi, kad šie rīki pēc noklusējuma ir iespējoti, bet arī citi, kur tie nav.

AI ģenerēts Trump un Musk attēls
Pilnībā AI ģenerēts attēls (autors GROK 3)

Visbeidzot, ir arī DeepFake noteikšanas rīki, pie kuriem varat vērsties. Lai arī viņi var neizdoties laiku pa laikam, tie parasti ir diezgan efektīvi. Ir pieejamas vairākas līdzīgas platformas, gan publiski, gan ekskluzīvas noteiktai sistēmai vai aparatūrai. Dziļo trauku skeneris ir tāds, kuru jūs pats varat brīvi izmantot no pārlūkprogrammas. Citi, piemēram, DuckDuckGoose, Intel Fakecatcher un realitātes aizstāvis, ir veidoti, paturot prātā uzņēmumus.

Īsāk sakot, AI darbināmas DeepFakes ir šeit, lai paliktu, bet tā nebūt nav slikta lieta. Mākslīgā intelekta iespaidīgās iespējas ir arī ļoti noderīgas, lai palielinātu produktivitāti, meklētu papildu iedvesmu, optimizētu darbplūsmu, ietaupītu laiku un atraisītu jūsu radošumu. Tomēr jums jāapzinās, ka mēs atrodamies kontekstā, un būt modrākam par to, kā rīkojaties ar patērēto saturu internetā.

Cerams, ka AI izstrādātāji un AI rīku izstrādātāji pieņems tādus standartus kā satura akreditācijas dati. Tas būtu lielisks palīgs plašākai sabiedrībai, it īpaši mazāk prasmīgi.