AI modeļi varētu būt pret mums shēmas, un mēs nekad neuzzināsim

AI modeļi, piemēram, Chatgpt, ir programmatūra, kas nozīmē, ka tie ievēro noteiktu instrukciju kopumu. Bet atšķirībā no parastās programmatūras, piemēram, tekstapstrādes, AI ir “inteliģents”. AI darbināmas sistēmas var mācīties un attīstīties. Bet vai AI modeļi varētu attīstīties līdz vietai, kur tie varētu būt pret mums bez mūsu zināšanām?

AI modeļu shēma

Informācija runāja ar Openai pētnieku, kurš ierosināja, ka varbūt aptuveni gada laikā AI modeļi varētu kļūt tik gudri un attīstīti, ka tie varētu pret mums shēmas, un mēs nebūtu prātīgāki.

Kā tas ir iespējams, jūs jautājat? Padomājiet par savu pašreizējo domāšanas procesu. Ja kāds jums jautātu, kas ir 2+2, jūs loģiski izkārtotu savu domu secību. Tomēr AI kritiskais process nav tik melnbalts.

Piemēram, Deepseek R1 modelis tika analizēts, kad tam tika lūgts atrisināt ķīmijas problēmu. Tas sniedza pareizo atbildi, bet kritiskais process bija ķekars, ko cilvēki, iespējams, nespēs saprast. Tas ir tāpēc, ka AI modeļu izmantotais domu process ir kaut kas tāds, kas cilvēkiem nebūt nav jānozīmē kaut ko; Tam vienkārši jāatrisina problēma. Kā tas tur nokļūst, nav īsti svarīgi, ja vien tas notiek.

Tas nozīmē, ka, tā kā AIS turpina mācīties un attīstīties, varētu būt brīdis, kad viņi kaut ko uzzīmē aiz muguras, un mēs nevarētu pateikt. Atstājot Terminator-esque scenāriju, tas rada arī problēmu AI uzņēmumiem.

Kad programmatūra nedara to, kas tam paredzēts, izstrādātāji pārbauda žurnālus, lai redzētu notiekošo. Pēc tam viņi var precīzi noteikt kļūdu un atgriezties pie koda, lai to labotu. Tomēr, ja process cilvēkiem ir pilnīgi nesaprotams, kā AI inženieri spētu atrast problēmu un precīzi pielāgot AI modeli?

Aicinājums uz regulēšanu

Pēdējo gadu laikā AI veikti sasniegumi ir lēcieni un robežas pirms tam, kas tika darīts iepriekš. Šis pārtraukuma attīstības temps ir iespaidīgs, bet arī satraucošs. Tāpēc ir svarīgi regulēt AI. Piešķirts, ka noteikumi un noteikumi varētu palēnināt progresu, bet vai mēs tiešām vēlamies sacensties nākotnē, kur AI ir apsteidzis cilvēci?

Mēs jau esam redzējuši pierādījumus tam, kā AI var uzņemties dažādas personas, pamatojoties uz tās apmācības datiem. Tas nozīmē, ka kādam ir iespējams programmēt AI ar “ļaunu” personību. Mēs esam redzējuši arī satraucošus pētījumus, kuros AI modelis bija gatavs nogalināt cilvēkus hipotētiskā scenārijā, lai novērstu sevi slēgšanu.