AI turpina halucinēt – bet, hei, tas par to izklausās patiešām pārliecināts

Cik daudz jūs varat uzticēties AI? Kad jūs tam uzdodat jautājumu, tas atspoguļo atbildes jums tik pārliecinātā veidā, ka ir grūti to neņemt pie tā vārda. Faktiski ar katru atjauninājumu AI modeļi kļūst gudrāki. Diemžēl arī šķiet, ka arvien vairāk ziņo par AI halucinācijām.

AI halucinācijas palielinās

Nesen veiktā New York Times izmeklēšana atklāja, ka AI halucinācijas palielinās. Tas notiek neskatoties uz to, ka daudzi AI modeļi kļūst gudrāki. Daudzi daudz labāk risina matemātikas problēmas nekā agrāk. Daži ir spējīgi veikt dziļu izpēti, taču viņi joprojām nevar iegūt savus faktus taisni.

Ziņojumā ir citēts gadījums, kad AI BOT, kas apstrādā tehnikas atbalstu uzņēmumam ar nosaukumu Cursor, klientiem sacīja, ka viņiem vairs nav atļauts izmantot kursoru vairākos datoros. Politikas izmaiņas ir normālas. Bet šajā gadījumā viņi bija nepareizi. Kursors sazinājās ar klientiem, informējot viņus, ka šādas politikas izmaiņas nav mainījušās.

Faktiski Openai Chatgpt testi ir atklājuši, ka tās jaunākie modeļi, kas, domājams, ir labāki, halucinēti ar augstāku ātrumu nekā vecāki modeļi. Piemēram, Openai O3 modelī halucinēja 33% laika, vadot Personqa etalona testu. Tas ir divreiz vairāk nekā O1 modelis. Un O4-Mini? Tas ir vēl sliktāk – tas halucinēts ar ātrumu 48%.

Tātad jautājums ir, vai var fiksēt halucinācijas? Pēc AMR Awadallah teiktā, Vectara izpilddirektora un bijušā Google izpilddirektora izpilddirektors, Nr. Awadallah saka, “Neskatoties uz mūsu centieniem, viņi vienmēr halucinēs. Tas nekad nepazudīs.”

Kas ir halucinācijas?

Tiem, kas nav pazīstami ar AI halucināciju jēdzienu, tas ir gadījums, kad AI modelis veido faktus uz vietas, šķietami ārpus nekurienes. Daži ir teorizējuši, ka daži AI modeļi halucinē, ņemot vērā to argumentācijas daudzumu, kas viņiem jādara.

Vienkāršāki AI modeļi paļaujas uz augstas pārliecības prognozēm, kas nozīmē, ka tie uzņemas mazāk risku. Tomēr dažiem AI modeļiem, kas ietver spriešanas iespējas, jānovērtē dažādas iespējas. Dažos gadījumos viņiem, iespējams, pat nāksies improvizēt, kas var izraisīt to, ka viņi veido lietas.

Tas ir iemesls, kāpēc, ja jūs izmantojat AI pētniecības vajadzībām, iespējams, ir laba ideja divreiz pārbaudīt noteiktus faktus. Tas šķiet pretintuitīvi, bet, ja jūs izmantojat AI, lai veiktu pētījumus darbam vai skolai, tad varbūt būsit mazliet vairāk laika, lai to pareizi sakārtotu.