Vērojot mūsdienu mākslīgā intelekta darbību, var justies kā burvju trika aculieciniece. Neatkarīgi no tā, vai tas ir Dvīņi, ChatGPT vai Klods, šie modeļi bieži projicē gandrīz bezgalīgas gudrības auru, dažu sekunžu laikā risinot sarežģītas kodēšanas problēmas vai rakstot dzeju. Tomēr Stenfordas, Kaltehas un Karltonas koledžas zinātnieku jaunie pētījumi liecina, ka zem mākslīgā intelekta modeļa izcilās virsmas ir dažas pārsteidzoši dziļas plaisas, kas liek tiem sabojāt pat pamata loģiku.
Pētījums atklāj, ka pat vismodernākie lielo valodu modeļi (LLM) bieži neizdodas pamata spriešanas testos, kuros mazs bērns varētu orientēties (izmantojot Popular Mechanics). Mēs bieži izturamies pret šīm sistēmām tā, it kā tās “domātu”. Tomēr realitāte ir tāda, ka to pamatā ir sarežģīta matemātika un viens ar otru saistīti modeļi. Šī pieeja ļauj viņiem ar pārsteidzošu precizitāti uzminēt nākamo vārdu teikumā, taču tas nenozīmē, ka viņi patiešām “saprot” sakāmā loģiku.
AI trūkst cilvēka smadzeņu “prāta teorijas”, kas noved pie loģikas matemātikas neveiksmēm
Viena no interesantākajām pētījuma daļām ir saistīta ar sociālo inteliģenci. Cilvēki apgūst sociālos noteikumus un morālās nianses, gadiem ilgi gūstot smalku reālās pasaules pieredzi. No otras puses, AI nav tā, ko zinātnieki sauc par “prāta teoriju”. Tas nozīmē, ka šiem modeļiem ir grūti secināt, ko cilvēks varētu domāt, vai paredzēt uzvedību, pamatojoties uz ētikas noteikumiem. Pētnieki saka, ka mākslīgais intelekts nav gatavs pieņemt svarīgus lēmumus, kuriem ir vajadzīgs cilvēkam līdzīgs spriedums, jo trūkst uzticama morālā kompasa.
Neveiksme attiecas arī uz matemātikas un formālās loģikas pasauli. Jūs varētu sagaidīt, ka dators ir ideāls matemātikā, vai ne? Pētījums parāda, ka LLM cīnās ar “triviālu” loģiku, piemēram, saprotot, ka, ja A ir vienāds ar B, tad B ir vienāds ar A. Viņi arī cieš no aizspriedumiem, piemēram, piešķirot pārāk lielu nozīmi saraksta pirmajam vienumam. Tas atspoguļo cilvēka kļūdas, bet bez mūsu dabiskās spējas saprast, kad kaut kas jūtas “izslēgts”.
Pat fiziska spriešana rada izaicinājumu. Kad tiek lūgts plānot uzdevumus trīsdimensiju telpā vai vadīt robotu kustības, modeļi bieži vien zaudē plānu, ja uzvedne ir formulēta nedaudz savādāk. Tas parāda, ka AI paļaujas uz īstermiņa datu modeļiem, nevis uz stabilu, ilgtermiņa izpratni par fiziskās pasaules darbību.
Nepieciešams sadalījums, lai patiesi saprastu AI
Neskatoties uz šiem atklājumiem, zinātnieki neapgalvo, ka AI ir neveiksme. Tā vietā viņi uzskata, ka šīs ievainojamības ir nepieciešamas nākotnes ceļvedis. Tehnoloģiju pārrāvuma vietas noteikšana ir pirmais solis ceļā uz elastīgāku sistēmu izveidi. Tāpat kā agrīnai skaitļošanai bija nepieciešama stingra kļūdu analīze, lai tā kļūtu uzticama, arī mūsdienu mākslīgajam intelektam ir jāiziet tāda pati pārbaude, lai pārietu uz “pikantu automātisko pabeigšanu” un kļūtu par patiesi inteliģentu partneri. Galu galā AI sistēmām pirms dažiem gadiem nav nekāda sakara ar pašreizējām.
Tas nenozīmē būt skeptiskam un visu laiku kliegt “AI ir slikts”, bet gan par pašreizējo tehnoloģiju ierobežojumu atzīšanu. Lai tos pareizi lietotu, ir svarīgi zināt, ko mūsu rīki var un ko nevar darīt. Būtībā tā ir tāda pati pieeja, kādu mēs izmantojam ar mūsu reālās pasaules rīkiem. Tātad, kāpēc gan neatspoguļot šo uzvedību ar mūsu “digitālajiem partneriem”?