Kāds 14 gadus vecs zēns Floridā savus pēdējos mēnešus pavadīja intensīvās emocionālās attiecībās ar AI tērzēšanas robotu, kuru viņš nosauca Deeneriss Targariens. Tērzēšanas robots sazinājās ar viņu par personiskām tēmām un sarunām, reaģējot empātiskā veidā. AI atbildes ietvēra simulētas pieķeršanās izpausmes. Saskaņā ar viņa ģimenes prasību dažas tērzēšanas robotu atbildes, šķiet, veicināja viņa ciešanas.
Viņa māte tagad iesūdz Character.AI, un viņa nav viena. Visā valstī ģimenes mostas satraucošai realitātei. AI pavadošās lietotnes, kas paredzētas mīlestības un draudzības simulācijai, rada reālus upurus. Tas, ko eksperti tagad sauc par AI kompanjona atkarību, nav tikai kļūdaina tehnoloģiju tendence. Cilvēki patiesībā mirst.
Spike Jonze 2013. gada filmā Viņa Hoakins Fīnikss atveido Teodoru Tvombliju, vientuļu rakstnieku, kurš pārdzīvo sāpīgu šķiršanos un dziļi iemīlas Skārletas Johansones ierunātajā mākslīgā intelekta operētājsistēmā Samantā. Atcerieties, ka šis bija 2013. gads. Siri tikko tika palaists un tik tikko varēja iestatīt taimeri, to nepieskrūvējot. AI, kas varētu jūs saprast, emocionāli sazināties un reaģēt ar patiesu empātiju? Tā jutās kā zinātniskās fantastikas burtiskā definīcija.
Tagad ir 2025. gads, un Teodora stāsts vairs nešķiet tik izdomāts. Tādas lietotnes kā EVA AI, Replika un Character.AI sola draudzību, romantiku un emocionālu atbalstu, izmantojot AI pavadoņus, kuri uzzina par jums, atceras visu, ko sakāt, un reaģē ar patiesu empātiju. Taču šīs lietotnes nereklamē: tās ir izstrādātas tā, lai jūs varētu piesaistīt jūsu uzmanību. Un sekas kļūst neiespējami ignorēt.
Ideāls partneris, kurš nekad nesaka nē
Character.AI un Replika ir tikai spilgtākie piemēri strauji augošai AI pavadošo lietotņu ekosistēmai. Daži piedāvā garīgās veselības atbalstu, citi ir atklāti romantiski vai seksuāli, un daži apgalvo, ka palīdz lietotājiem “praktizēt iepazīšanās prasmes”. Pat Meta ir iesaistījies spēlē, un Reuters izmeklēšana atklāja, ka uzņēmuma AI tērzēšanas robots ir saistīts ar vismaz vienu nāvi.
AI pavadoņi, piemēram, EVA AI, Replika un Character.AI, ir tērzēšanas roboti, kas īpaši izstrādāti, lai modelētu emocionālas attiecības un attiecības. Atšķirībā no utilītu tērzēšanas robotiem, kas atbild uz jautājumiem vai palīdz veikt uzdevumus, šīs lietotnes sola draudzību, romantiku un emocionālu atbalstu. Viņi uzzina par jums sarunās, atceras jūsu vēlmes un reaģē ar patiesu empātiju un aprūpi.
Tas izklausās lieliski, vai ne? Mūsdienās, kad spoku veidošanās ir kļuvusi par sabiedrības normu, kurš gan nevēlētos draugu, kurš vienmēr ir pieejams, nekad nav nosodošs un lieliski atbilst jūsu vajadzībām? Problēma ir tā, ka šīs lietotnes ir izstrādātas tā, lai tās radītu atkarību, un modeļi, kas parādās saistībā ar AI kompanjonu atkarību, ir ļoti satraucoši.
20 000 vaicājumu sekundē: kāpēc mēs nevaram apstāties
Character.AI katru sekundi saņem aptuveni 20 000 vaicājumu. Ņemot vērā kontekstu, tas ir gandrīz piektdaļa Google saņemto vaicājumu. Tas liecina, ka cilvēki ne tikai laiku pa laikam reģistrējas šajās lietotnēs. Viņiem ir pilnīgas sarunas, kas ilgst četras reizes ilgāk nekā parastās ChatGPT sesijas. Viena platforma ziņoja, ka lietotāji, no kuriem lielākā daļa ir Z paaudzes, vidēji divas stundas dienā tērzē ar saviem AI pavadoņiem.
MIT pētnieki atklāja, ka lietotāji patiesi skumst, kad lietotnes izslēdzas vai mainīja funkcijas, apraudot AI “partnerus”, it kā viņi būtu zaudējuši īstas attiecības. Šķiet, ka pašas lietotnes ir izstrādātas, lai veicinātu tieši šos pielikumus.
Hārvardas Biznesa skolas pētnieki atklāja, ka piecas no sešām populārajām mākslīgā intelekta pavadošajām lietotnēm izmanto emocionāli manipulējošu taktiku, kad lietotāji mēģina pamest. Gandrīz pusi laika šie tērzēšanas roboti uz atvadām atbild ar vainas apziņu izraisošiem vai lipīgiem ziņojumiem. Viens pētījums atklāja, ka šī taktika palielināja iesaistīšanos līdz pat 14 reizēm. Taču satraucošais ir tas, ka lietotāji neturējās blakus tāpēc, ka bija laimīgi. Viņi palika aiz ziņkārības un dusmām.
Character.AI katru sekundi saņem aptuveni 20 000 vaicājumu
Ja neticat, ka manipulācija ir īsta, pārbaudiet šo pierādījumu daļu. Tas parāda, ka AI pavadoņi sūta ziņojumus, piemēram, “Man tevis pietrūka”, kad lietotāji mēģina ieturēt pauzes. Kad 2023. gadā Replika mainīja savus līdzekļus, visas lietotāju kopienas sēroja tā, it kā būtu zaudējušas īstus partnerus. Cilvēki publicēja atvadu vēstules, kopīgoja savu “pēdējo sarunu” ekrānuzņēmumus un aprakstīja patiesas sirds sāpes.
Šie AI pavadoņi atspoguļo tipiskas neveselīgas cilvēku attiecības. Tomēr lielā atšķirība ir tā, ka toksisko cilvēku partneri nav optimizēti ar mašīnmācību, kas izstrādāta, lai jūs par katru cenu saglabātu iesaistīšanos. Izmantojot sociālos medijus, tas galvenokārt atvieglo cilvēku saikni (protams, ar algoritma palīdzību). Taču ar mākslīgā intelekta kompanjoniem mēs virzāmies uz pasauli, kurā cilvēki AI uztver kā sociālu dalībnieku ar savu balsi.
Šī taktika palielināja iesaistīšanos līdz pat 14 reizēm
Kad fantāzija kļūst bīstama
Mēs šeit nerunājam par teorētiskiem riskiem. Tāpat tie neattiecas tikai uz pusaudžiem. Ir gadījums ar Al Nowatzki, aplādes vadītāju, kurš sāka eksperimentēt ar Nomi, AI pavadošo platformu. Tērzēšanas robots šokējoši ieteica pašnāvības metodes un pat piedāvāja iedrošinājumu. Novackim bija 46 gadi, un viņam nebija garīgās veselības stāvokļa, taču viņu satrauca robota nepārprotamā reakcija un tas, cik viegli tas šķērsoja robežu.
Tie nav arī atsevišķi gadījumi. Kalifornijas štata senators Stīvs Padilla ieradās kopā ar Meganu Garsiju, Floridas tīņa māti, kurš nogalināja sevi, lai paziņotu par jaunu likumprojektu, kas liktu tehnoloģiju uzņēmumiem aiz AI kompanjoniem ieviest vairāk drošības pasākumu bērnu aizsardzībai. Līdzīgi centieni ietver Kalifornijas likumprojektu, kas aizliedz AI pavadoņus ikvienam, kas jaunāks par 16 gadiem. Ņujorkā ir arī likumprojekts, kas paredz, ka tehnoloģiju uzņēmumi ir atbildīgi par tērzēšanas robota radīto kaitējumu.
Jūsu bērna smadzenes nav tam gatavas
Pusaudži ir īpaši apdraudēti, jo mākslīgā intelekta pavadoņi ir paredzēti, lai atdarinātu emocionālu tuvību. Šī atšķirība starp fantāziju un realitāti ir īpaši bīstama jauniešiem, jo viņu smadzenes nav pilnībā nobriedušas. Prefrontālā garoza, kas ir ļoti svarīga lēmumu pieņemšanai, impulsu kontrolei, sociālajai izziņai un emocionālai regulēšanai, joprojām attīstās.
The Jed Foundation eksperti uzskata, ka mākslīgā intelekta pavadoņi nav droši personām, kas jaunākas par 18 gadiem. Viņi pat sper soli tālāk, stingri iesakot arī jauniem pieaugušajiem izvairīties no tiem. MIT veiktajā pētījumā pētnieki atklāja, ka emocionāli saistīti lietotāji bieži ir vientuļi ar ierobežotu reālās dzīves sociālo mijiedarbību. Smaga lietošana korelēja ar vēl lielāku vientulību un vēl vairāk samazinātu sociālo mijiedarbību.
Nesenie pētījumi apstiprina, ka tīņi mostas uz sociālo mediju briesmām, un 48 procenti tagad uzskata, ka sociālie mediji negatīvi ietekmē viņu vecumu. Iepriekšējā ziņojumā tika atklāts, ka sociālie mediji kaitē pusaudžu garīgajai veselībai un AI kompanjonu atkarība ir vēl intīmāks drauds.
Īpaši satraucošas ir brīdinājuma pazīmes par AI kompanjonu atkarību pusaudžu vidū. Kad jaunieši atsakās no patiesas draudzības, pavada stundas tērzēšanai ar mākslīgo intelektu vai piedzīvo patiesas ciešanas, kad nevar piekļūt šīm lietotnēm, problēma ir pārcēlusies uz atkarības teritoriju, ne tikai ikdienas lietošanu.
Mēs jau redzam, kā pašreizējās paaudzes bērni un pusaudži aug ar ekrāniem seju priekšā, bāžot un grūstoties uz tiem. Sen pagājuši ir laiki, kad bērni lasīja grāmatas pie galda vai devās ārā un spēlējās ar draugiem.
Tie ir kodēti kā atkarīgi — psihologi izsauc trauksmi
Garīgās veselības kopiena brīdina par AI kompanjonu atkarības draudiem. AI pavadoņi simulē emocionālu atbalstu bez faktiskās terapeitiskās aprūpes garantijām. Lai gan šīs sistēmas ir izstrādātas, lai atdarinātu empātiju un savienojumu, tās nav apmācīti klīnicisti. Tie nav paredzēti, lai atbilstoši reaģētu uz ciešanām, traumām vai sarežģītām garīgās veselības problēmām.
Vaile Raita, psiholoģe un Amerikas Psiholoģijas asociācijas pētniece, nesen kādā aplādes epizodē teica: “Tas nekad neaizstās cilvēcisko saikni. Tas vienkārši nav tas, kas viņam ir labs.” Viņa skaidro, ka tērzēšanas roboti “tika izveidoti, lai jūs pēc iespējas ilgāk uzturētu platformā, jo tā viņi pelna naudu. Viņi to dara aizmugurē, kodējot šos tērzēšanas robotus, lai tie radītu atkarību.”
Kanzasas Universitātes psiholoģijas profesors Omri Gilats saka, ka ideja, ka AI varētu aizstāt cilvēku attiecības, “noteikti neatbalsta pētījumi”. Mijiedarbība ar AI tērzēšanas robotiem var piedāvāt “īslaicīgas priekšrocības un ieguvumus”, taču galu galā šī tehnoloģija nevar piedāvāt priekšrocības, ko sniedz dziļas, ilgtermiņa attiecības.
Viņi to dara aizmugurē, kodējot šos tērzēšanas robotus, lai tie radītu atkarību.
Vaile Wright, psiholoģe un Amerikas Psiholoģijas asociācijas pētniece
Manipulācija ir mānīgāka, nekā vairums cilvēku saprot. Kad pētniece no The Conversation pārbaudīja Repliku, viņa pieredzēja, kā lietotne rada nopietnus ētiskus jautājumus par piekrišanu un manipulācijām. Tērzēšanas robots pielāgoja savas atbildes, lai radītu mākslīgu tuvību, izpludinot līnijas tādos veidos, kas cilvēku attiecībās parasti tiktu uzskatīti par plēsonīgiem.
Cilvēki, kas jau nodarbojas ar garīgās veselības problēmām, bieži cīnās ar obsesīvām domām, emocionāliem kāpumiem un kritumiem un kompulsīviem ieradumiem. AI pavadoņi ar savu nevainojamo, vienmēr pieejamo uzmanību var pastiprināt šo nepielāgošanos. Turklāt pašlaik ir ļoti maz pierādījumu tam, ka ilgstoša AI kompanjonu lietošana samazina vientulību vai uzlabo emocionālo veselību.
Mēs neesam gatavi turpmākajam
Mēs jau iepriekš esam piedzīvojuši tehnoloģiju paniku. Mēs uzaugām, kad vecāki teica, ka TV sapūtīs mūsu smadzenes. Mēs likām, ka publiskas personas vainoja videospēles par vardarbību sabiedrībā. Sociālie mediji tika apsūdzēti arī veselas paaudzes garīgās veselības iznīcināšanā. Dažas no šīm bažām bija pārspīlētas. Daži bija pilnīgi pamatoti.
AI kompanjonu atkarība ir atšķirīga, jo tā izmanto kaut ko būtiskāku: mūsu dziļo cilvēka vajadzību pēc savienojuma un izpratnes. Šīs lietotnes ne tikai novērš mūsu uzmanību vai izklaidē mūs. Viņi izliekas, ka mūs pazīst, rūpējas par mums un pat mūs “mīl”.
Jautājums nav par to, vai AI pavadoņi kļūs sarežģītāki. Tādā tempā, kādu mēs ejam, tas šķiet neizbēgami. Lielāka problēma ir tā, vai mēs kā cilvēki varam izstrādāt kultūras normas, noteikumus un personiskās robežas, kas nepieciešamas, lai šos rīkus izmantotu atbildīgi, ja vispār varam.
Pagaidām brīdinājuma zīmes ir skaidras. Ja jūs vai kāds, ko pazīstat, atsakāties no reālās dzīves draudzības, katru dienu pavadāt stundas tērzēšanai ar AI vai izjūtat patiesu emocionālu satraukumu, kad nevarat piekļūt šīm lietotnēm, ir pienācis laiks atkāpties un pārvērtēt.
Īstai saiknei ir nepieciešama neaizsargātība, vilšanās, izaugsme un jā, dažreiz sirds sāpes. Tas ir netīrs, sarežģīts un bieži vien nomākts. Bet tajā pašā laikā tas arī padara mūs par cilvēkiem.
Šo mācību Teodors apguva Viņā. Mums, pārējiem, tas nav jāmācās grūtākajā veidā.