Ikvienam, kurš paļaujas uz AI, lai meklētu informāciju, neatkarīgi no tā, vai tā ir personīga vai profesionāla lietošana, zina, ka AI var halucināt. Tas nozīmē, ka dažreiz informācija, ko tā sniedz, jūs varētu būt nepareiza vai vienkārši pilnībā veidota. Tas ir arī iemesls, kāpēc ir svarīgi divreiz pārbaudīt, pirms ņem to, ko AI saka kā evaņģēliju. Diemžēl ne visi to dara, tāpēc restorāni izsauc Google AI par viltus restorānu piedāvājumiem.
Google AI, sniedzot viltus restorānu piedāvājumus
Mēs esam pārliecināti, ka daži no jums ir saskārušies ar ziņām Facebook, Instagram, Threads vai X/Twitter no tā saucamajiem “uzvedumiem”. Šīs ziņas bieži apgalvo, ka, izmantojot AI rīkus, piemēram, Chatgpt, ir ietaupījuši tos “tūkstošiem dolāru” lidojumos, viesnīcās un citur. Domājams, ka tas tiek darīts, izmantojot AI, lai mazgātu tīmekli darījumiem.
Tāpēc daži uzņēmumu īpašnieki tagad izsauc Google un tā AI, lai sniegtu klientiem nepatiesu informāciju par restorānu piedāvājumiem un īpašajiem piedāvājumiem. Stefanina picērija Ventvilā izveidoja ziņu sociālajos medijos, lai norādītu uz problēmu.
Saskaņā ar amatu, “Lūdzu, nelietojiet Google AI, lai uzzinātu mūsu īpašos piedāvājumus. Lūdzu, dodieties uz mūsu Facebook lapu vai mūsu vietni.
Runājot ar KMOV, Džonatans Hanahans, Vašingtonas universitātes profesors, kurš izmanto un māca mākslīgo intelektu, saka, ka dažreiz šīs neprecizitātes parādās uzvednes rezultātā. Tas var izraisīt informāciju, kas ir sagrozīta vai kurai ir apstiprināšanas neobjektivitāte.
Nav pirmā reize, kad tas notiek
Hanahana komentāri faktiski ir norādīti. Tas arī atbilst nesenam Oksfordas pētījumam, kurā atklājās, ka AI rīki patiesībā lieliski nodrošina medicīniskās diagnozes. Tomēr, pārī ar cilvēkiem ar cilvēkiem, šī precizitāte ievērojami samazinās. Tas ir no 94,9% līdz satraucošam 34,5%. Izrādās, ka tam ir sakars ar to, kā cilvēki strauji un mijiedarbojas ar AI modeli.
AI modeļi faktiski var sniegt precīzu diagnozi, bet, tā kā lietotāji cilvēku dažreiz atstāj informācijas bitus, tas AI nedod pilnīgu ainu, izraisot neprecīzu diagnozi. Tas varētu būt viens no jautājumiem, ar kuriem lietotāji saskaras, paļaujoties uz AI rīkiem, piemēram, Google AI pārskatu.
Jebkurā gadījumā tas liek nopietnam gadījumam, kad pirms kaut kā tiek pieņemts, nav pārāk paļāvies uz AI, kā arī vienmēr pārbaudot informāciju.