ChatGPT nedarbojās un sāka izrunāt runas

ChatGPT nesen radās nopietna kļūme, kad mākslīgā intelekta modelis sāka runāt ar vairākiem lietotājiem pilnīgā muļķībā. Sāka parādīties dažādi ziņojumi, īpaši vietnē Reddit, par ChatGPT, kas notiek par pilnīgi bezjēdzīgiem klejojumiem. Bija arī ziņojumi par AI iestrēgšanu cilpās vai valodu sajaukšanu, lai radītu dīvainus hibrīdus. OpenAI pamanīja un identificēja problēmu vēlāk, un pēc dažām stundām tā tika novērsta.

ChatGPT nedarbojas pareizi, iestrēgst cilpās un izpļāpā

Viens ziņojums vietnē Reddit parādīja, ka ChatGPT pēkšņi sāka runāt nesakarīgi. AI izplūda nejaušus vārdus, fragmentus no konkrētiem apmācības datiem un pat dažādas valodas. Citā ziņojumā par nepareizu darbību lietotājs kopīgoja vairākus ChatGPT ekrānuzņēmumus, kas svārstās starp halucinācijām un gaišumu. Pēc muļķību runāšanas tas iestrēga cilpā, pirms pārtrauca savu atbildi. Kad lietotājs uz to norādīja, tas atvainojās, bet pēc tam atkal runāja muļķības. Tas atkārtojās citu reizi, kad tika uzņemti ekrānuzņēmumi.

Vēl viena ļoti interesanta ziņa parādīja, ka ChatGPT atkal iestrēgst cilpā. Tomēr šoreiz cilpa bija pašlabojoša. Kad ChatGPT tika lūgts nosaukt pasaules lielāko pilsētu, kas sākas ar burtu “A”, tā ieguva ļoti dīvainu pieskārienu. Tas nosauktu pilsētu, pēc tam teiktu, ka tā nav pareizā atbilde, un mēģinātu vēlreiz, bezgalīgi. Cilvēki komentāros to izmēģināja savās tērzēšanas sarunās un dalījās ar līdzīgiem rezultātiem. Vēl viens Reddit ieraksts par GPT-4, OpenAI premium abonēšanas modeli, parādīja ChatGPT halucinācijas. Vēlreiz vairāki lietotāji komentāros dalījās ar līdzīgiem rezultātiem.

OpenAI paskaidro, kāpēc tas notika

OpenAI ņēma vērā attīstības traucējumus un ātri identificēja problēmu. Dažu stundu laikā uzņēmums ziņoja, ka ChatGPT savā statusa lapā darbojas normāli. Nākamajā dienā uzņēmums nāca klajā ar paskaidrojumu par to, kas bija tik greizs.

Acīmredzot nesen ieviestā optimizācija bija sajukusi lietas. OpenAI ļoti vienkārši izskaidroja, kā darbojas ChatGPT un kas ir nogājis greizi.

“LLM (lielo valodu modeļi) ģenerē atbildes, nejauši atlasot vārdus, daļēji pamatojoties uz varbūtībām. Viņu “valoda” sastāv no cipariem, kas tiek saistīti ar žetoniem. Šajā gadījumā kļūda bija solī, kurā modelis izvēlas šos skaitļus. Līdzīgi kā pazudis tulkojumā, modelis izvēlējās nedaudz nepareizus skaitļus, kas radīja vārdu secības, kurām nebija jēgas.

Īsāk sakot, ChatGPT ieguva nepareizus vārdus un demonstrēja nejēdzīgu mēmu. Padomājiet par to kā ar šautriņu mešanu pa lielu vārdnīcu un teikuma izveidošanu no vārdiem, uz kuriem šautriņas nokļuva.