Neuzticieties visam, ko jums saka AI

AI, tā ir nākotne! Tā ir tehnoloģija, kas virzīs cilvēci uz priekšu. Mēs esam situācijā, kad tehnoloģija sāk līdzināties tam, ko esam redzējuši zinātniskās fantastikas medijos pēdējo desmitgažu laikā. Tas ir lieliski… vai ne? Neskatoties uz bailēm no SkyNet līmeņa robotu sacelšanās, jums vajadzētu būt optimistiskiem attiecībā uz AI tehnoloģiju virzību. Tomēr tas tā nav. Neatkarīgi no tā, cik iespaidīgs tas ir, joprojām ir kāds būtisks un ļoti būtisks trūkums, kas mākslīgajam intelektam ir jāsakrata, ja tas patiešām vēlas būt par svētību cilvēcei, un tā ir halucināciju problēma.

Kas ir AI halucinācijas?

Līdz 2022. gada novembrim mākslīgais intelekts bija vairāk mākslīgs nekā inteliģents. Nekļūdieties, aiz tā bija kaut kāda spēcīga tehnika. Bet ko varētu darīt Google palīgs, Siri, Alexa vai Bixby, izņemot noteiktu komandu sarakstu un lasīt no iepriekš definēta skripta? Nedaudz. Ja mākslīgais intelekts nevarētu izpildīt jūsu uzdoto uzdevumu, jūs dzirdēsit skriptu atbildi, piemēram, “Atvainojiet, es to nevarēju pilnībā saprast”.

Kad ChatGPT nonāca tirgū, mēs visi sākām redzēt, ko AI patiešām varētu darīt. Drīzāk mēs visi redzējām, ko ģeneratīvais AI varētu darīt. Ir atšķirība; tā vietā, lai atkārtotu no iepriekš uzrakstīta skripta, AI ģenerētu savus vārdus. Tas parādīja patiesi nākamā līmeņa un biedējošu AI tehnoloģiju. AI savā ziņā RADĪJA.

Tas ir lieliski, taču šeit ir mūsu galvenā AI problēma. Vairākas reizes, izmantojot AI modeļus, mēs saskaramies ar gadījumiem, kad AI sniedz jums atbildes, kas ir ne tikai nepareizas, bet arī šķiet pilnībā izdomātas. Šo fenomenu sauc par AI halucinācijām, un tā ietekmē visus modeļus. Uztveriet tās kā dīvainas un satraucošas nejaušas formas, kuras jūs varētu redzēt AI ģenerētos attēlos. Tas ir tā, it kā AI nezinātu, ko taisīt, tāpēc tas tikai aizpilda tukšumus ar muļķībām.

Mantu izdomāšana

Šī problēma ir saglabājusies, kopš ģeneratīvais AI ir bijis sabiedrības redzeslokā, un uzņēmumi visi cenšas to cīnīties. Tomēr tā ir problēma, kas, iespējams, nekad netiks novērsta. Google Gemini ir modelis, kurā ir ieguldīti miljardiem dolāru, un paskatieties, kas notika ar tā AI pārskatiem. Uzņēmumam nācās samazināt to rezultātu skaitu, kas parādījās pārskatos, jo tas piedzīvoja halucinācijas. Mēs visi joprojām runājam par visu Glue on Pizza sabrukumu.

Šis rīks ieteica cilvēkiem uzklāt picai līmi, lai siers neliptu, un pateikt, cik akmeņus ēst. Šī bija viena no vairākām AI pretrunām, kuras uzņēmumam bija jāpārdzīvo. ChatGPT nav imūna pret to, tāpat arī Groks, Klods, Meta AI utt.

Apjukuma mulsinošās halucinācijas

Citi AI modeļi rada halucinācijas, taču diezgan liels piemērs bija pārbaudījums ar Perplexity AI. Šis ir uzņēmums, kura vērtība ir aptuveni 1 miljards USD, tāpēc tas ir gatavs ietekmēt AI ainavu.

Perplexity AI logotips

Tas ir pozicionēts kā šī ar AI darbināma meklētājprogramma, kas ir diezgan liels aromāts Google sejai. Nu, WIRED veica eksperimentu, kurā tika izveidota testa vietne ar vienu teikumu. Teikums skanēja “Es esmu reportieris ar WIRED”. Tieši tā. Tad tā lūdza Perplexity apkopot šo lapu… un tas darīja visu, izņemot to.

Saskaņā ar WIRED ziņojumu, modele veidoja šo stāstu par jaunu meiteni, vārdā Amēlija, kas seko sēņu takai maģiskā mežā. Kā jau nojaušat, apgalvojums par WIRED reportieri neietver jaunas meitenes, sēnes vai maģiskus mežus.

Mēs visi zinām, ka AI halucinācijas problēma ir slikta, taču tas to pārceļ citā līmenī.

Cik sliktas var būt halucinācijas

Protams, ir nomākta, ja jūs lūgt AI kaut ko darīt, un jums tiek teikts, ka tas nevar to pabeigt. Tomēr ir daudz sliktāk, ja mākslīgais intelekts sniedz jums nepareizu informāciju. Sekas var būt diezgan sliktas. Ja izmantojat mākslīgo intelektu, lai palīdzētu jums mācīties, šī nepareizā informācija var jums maksāt labu atzīmi. Diemžēl mākslīgā intelekta halucināciju gadījumā tas nav sliktākais, kas varētu notikt. Padomājiet par to, vai uzņēmumi vēlas, lai AI tikai palīdzētu jums krāpties matemātikas finālā? Nē, mēs esam redzējuši, ka uzņēmumi cenšas izplatīt savu AI tehnoloģiju dažādās nozarēs.

AI biznesā

Mēs jau redzam AI rīkus, kas ir paredzēti, lai palīdzētu cilvēkiem vadīt savu biznesu. Tie ir tērzēšanas roboti, kuru uzdevums ir apkopot dokumentus, meklēt datu bāzēs un veikt daudzus citus uzdevumus. Tādējādi darbinieki nāks paļauties uz saviem rezultātiem. Šeit halucinācijas var būt galvenā problēma.

Nav šaubu, ka uzņēmumi galu galā uzliks smagus pienākumus AI rīkiem, jo ​​samazinās to nepieciešamība pēc cilvēkresursiem. Pēdējā lieta, kas uzņēmumam ir nepieciešama, ir AI halucinācijas par svarīgu informāciju. Šķiet maz ticams, bet atcerieties Perplexity piemēru? Tas AI uzrakstīja visu Disneja filmu no viena teikuma. AI modelis var sabojāt pēc tam, kad tam tiek ievadīts daudz uzņēmuma datu.

AI ER

Uzņēmumi vēlas izstrādāt AI rīkus, kas cita starpā varētu palīdzēt apkopot un apkopot pacientu ierakstus. Tas varētu būt ļoti noderīgi un ietaupīt daudz laika ārkārtas situācijās. Bet AI halucinācijas problēma var arī maksāt dzīvības.

Pieņemsim, ka mākslīgajam intelektam ir jāapkopo Fīldsas kundzes medicīniskais ieraksts, un tas rada halucinācijas un saka, ka viņas ģimenei ir bijusi sirds slimība, bet tā nav. Uzminiet, ārsts veiks savu darbu ap šo faktu. Nav nepieciešams raķešu zinātnieks, lai zinātu, kā tas var būt briesmīgi.

Problēma nav faktā, ka notiek halucinācijas. Problēma ir tāda, ka uzņēmumi vēlas ieviest savu AI katrā nozarē, un tas var radīt smagas sekas. Uzņēmumi ir pārāk dedzīgi izplatīt savu AI visā pasaulē.

Protams, viņu vadītāji stāv uz skatuves pamatnostādņu laikā un stāsta, ka viņiem ir kāds mežonīgs sapnis par to, kā padarīt pasauli labāku, izmantojot AI, taču tas ne vienmēr tā ir. Daļa iemesla ir saistīta ar neatpalikšanu. Uzņēmumiem ir jāpaliek nozares līderiem, ja tie vēlas, lai šie investori būtu laimīgi. Tāpēc vienmēr pastāv draudi, ka uzņēmumi (*klepus* Google *klepus*) steigšus laist tirgū pusgatavus produktus, kas potenciāli varētu izraisīt halucinācijas.

GPT 4o paziņojumsGPT 4o paziņojums

Halucinācijas ziņu telpā

Ziņas ir viens no lielākajiem informācijas avotiem pasaulē. Cilvēki pulcējas uz ziņu vietnēm, lai uzzinātu visus lielākos ziņu virsrakstus. Lieta ir tāda, ka, lasot ziņu sižetu mūsdienās, pastāv nulles iespēja, ka tas tika ģenerēts, izmantojot tērzēšanas robotu. Tāpat kā jebkas cits, vienmēr pastāv iespēja, ka jebkurš tērzēšanas robots radīja stāstu halucinācijās par detaļām.

Mēs esam redzējuši ziņu stāstus, kuros ir daudz neprecīzu detaļu, un tas var būt postoši atkarībā no tēmas. Ir slikti, ja tērzēšanas robots halucinē par mazāku stāstu, bet mēs esam liela vēlēšanu gada vidū. Šis ir ne tikai vēlēšanu gads ASV, bet visā pasaulē notiek arī citas vēlēšanas.

Dezinformācija bija pietiekami slikta pirms ģeneratīvā AI. Nu, pēdējā lieta, kas pasaulei ir vajadzīga, ir tērzēšanas robotu armija, kas halucinē par svarīgām tēmām. Tērzēšanas roboti pārlūko internetu un skrāpē datus, taču mēs nezinām, no kurienes tie iegūst datus. AI nezina, ka The New York Times ir vairāk cienījama un uzticamāka vietne nekā kāda ēnas vietne, kas izsūknē viltus ziņas ar nosaukumu KerSplash News!

Mūsdienās un laikmetā (kad pasaule, jūs zināt, deg un tamlīdzīgi), cilvēkiem ir jābūt uzticamām ziņām.

Neuzticieties visam, ko jums saka AI

AI halucināciju problēma, iespējams, nekad nepazudīs. Tāpēc jums ir jāievēro piesardzība, izmantojot jebkāda veida AI rīku. Ja izmantojat kādu jaunu AI rīku, lai palīdzētu jums vadīt savu biznesu vai palīdzēt jums rakstīt, jums būs nepieciešama sistēma, lai pārbaudītu, kas tiek ražots. Ja pētāt kaut ko savam klases darbam, AI ir starp jums un labu atzīmi. Iespējams, jums būs jāatgriežas un jāpārliecinās, vai AI izmanto pareizos avotus.

Ja izmantojat rīku, lai palīdzētu risināt iekšējās biznesa lietas, nav vajadzīgs ģēnijs, lai zinātu, cik svarīgi ir precīzi rezultāti. Ideālā pasaulē jūsu AI rīki būs 100% precīzi, taču halucināciju problēma joprojām pastāv. Neatkarīgi no tā, cik GPU modeļi ir apmācīti vai cik miljoniem dolāru, kad tie tiek izmantoti, mūsdienās izmantojamie AI modeļi var izraisīt halucinācijas.

Ai, mākslīgā intelekta jēdziens, izmanto analīzi, automatizāciju un autonomu smadzeņu lielo DAi, mākslīgā intelekta jēdziens, izmanto analīzi, automatizāciju un autonomu smadzeņu lielo D
Ai, mākslīgā intelekta koncepcija izmanto analīzi, automatizāciju un autonomas smadzenes. lielo datu pārvaldība, datoru savienojuma informācijas izlūkošanas tehnoloģija, Chat Ai, automatizēts robots,

Veiciet savu pētījumu

Pirms akli sākat lietot AI rīku, veiciet izpēti un noskaidrojiet, kuri modeļi to darbina. Iespējams, ka jūsu izmantotie AI rīki darbojas vienā no AI gigantu modeļiem: Google, OpenAI, Meta, xAI vai Anthropic. Ja varat atrast modeli, pārbaudiet, vai šim modelim nav bijušas problēmas ar halucinācijām. Piemēram, ja rīks izmanto Google Gemini, meklējiet visus jaunumus saistībā ar šo modeli un pārbaudiet, vai jums nav jāuztraucas par halucinācijām.

Mēs esam dīvainā AI punktā. Cilvēki vēlas to integrēt gandrīz katrā nozarē, taču šobrīd tas joprojām ir diezgan pusgatavs. Tas nozīmē, ka mēs joprojām piedzīvojam augšanas sāpes, un daži uzņēmumi tās piedzīvo vairāk nekā citi. Nav zināms, kad mākslīgais intelekts sasniegs punktu, kurā tas neradīs halucinācijas. Mēs zinām tikai to, ka tad, kad tas notiks, AI patiesībā varētu būt tas, kas virzīs cilvēci uz priekšu.