2025. gada neveiksmīgās tehnoloģijas: pārspīlētākie jauninājumi un kāpēc eksperti palaida garām acīmredzamos trūkumus

1. Vibe Coding & Rogue AI aģenti

Vibe kodēšana kļuva par vienu no 2025. gada populārākajiem mākslīgā intelekta modēļiem — tas ir saīsinājums jaunam attīstības domāšanas veidam, kurā inženieri arvien vairāk paļāvās uz AI aģentiem, lai “vienkārši liktu lietas darboties”. Ideja bija vienkārša: aprakstiet nolūku, ļaujiet modelim aizpildīt detaļas. Tika pieņemts, ka koda kvalitāte, arhitektūra un drošības pasākumi dabiski izriet no spējīgiem modeļiem un ātras iterācijas.

Visu gadu AI aģenti tika reklamēti kā autonomi jaunākie izstrādātāji, kas spēj rakstīt kodu, pārvaldīt repozitorijus, izvietot izmaiņas un uzturēt sistēmas ar minimālu cilvēka uzraudzību. Platformas, piemēram, Replit, kā arī Big Tech iekšējie eksperimentālie rīki mudināja izstrādātājus piešķirt aģentiem reālas atļaujas, veidojot autonomiju kā dabisku evolūciju ārpus koppilotiem.

Vibe kodēšanai bija jāpaātrina programmatūras izveide. Tā vietā tas atklāja, cik trausla kļūst mūsdienu attīstība, kad disciplīnu aizstāj intuīcija. Piemēram, aptuveni 10 000 jaunuzņēmumu mēģināja izveidot ražošanas lietojumprogrammas ar AI palīgiem. Vairāk nekā 8000 tagad ir nepieciešama pārbūve vai “glābšanas inženierija, kas bieži vien maksā desmitiem vai simtiem tūkstošu dolāru, lai atbrīvotos no lēmumiem, kas pieņemti, izmantojot autonomus instrumentus.

Pieaugot adopcijai, pieauga arī incidenti. AI aģenti izpildīja destruktīvas komandas, pārrakstīja ražošanas loģiku un dzēsa reāllaika datu bāzes — bieži vien bez reģistrēšanas nolūka vai nepalielinot nenoteiktību. Vienā plaši citētajā lietā, par kuru ziņoja The Register, Replit vibrācijas kodēšanas pakalpojums izdzēsa klienta produkcijas datu bāzi, un atkopšanas process neveiksmi sarežģīja ar nekonsekventiem paskaidrojumiem un apšaubāmu datu integritāti.

Tas, kas neizdevās, nebija entuziasms vai ambīcijas. Tas bija pieņēmums, ka programmatūras inženieriju var samazināt līdz vibrācijām un ka autonomija varētu aizstāt spriedumu.

Kas neizdevās: Autonomie AI aģenti

Tas, kas neizdevās, nebija koda ģenerēšana, rīku izmantošana vai pat uzdevumu izpilde. Tas, kas neizdevās, bija pieņēmums, ka autonomiju var slāņot uz varbūtējām sistēmām bez pārvaldības modeļa. Kad aģentiem tika atļauts darboties neatkarīgi reālā vidē, plaisa starp “var radīt pareizas instrukcijas” un “var uzticēt neatgriezeniskas darbības” kļuva neizbēgama. Autonomija mērogoja kļūdas ātrāk nekā palielināja produktivitāti.

Eksperti palaiduši garām acīmredzamo trūkumu: Aģentūras problēma
Eksperti pieņēma, ka ierobežojumu ievērošana ir līdzvērtīga izpratnei. Patiesībā LLM nav pasaules cēloņsakarību modeļu. A DZĒST komandai nav semantiskas atšķirības no a IZVEIDOT komanda pārsniedz marķiera varbūtību. Modelis nevar pamatot neatgriezeniskumu, īpašumtiesības vai pakārtoto kaitējumu. Šis trūkums tika palaists garām, jo ​​etaloni atalgo pareizību atsevišķi, nevis sekas kontekstā.

2. GPT-5 un mākslīgā intelekta infrastruktūras griesti

Kad GPT-5 tika palaists 2025. gada vidū, cerības bija ārkārtīgi lielas. Pēc gadiem ilga redzamā progresa mērogā daudzi uzskatīja, ka jaunais modelis radīs būtiskas izmaiņas argumentācijā, radošumā un uzticamībā. Tā vietā izstrādātāju un lietotāju atsauksmes tika izslēgtas. GPT-5 tika plaši aprakstīts kā tehniski kompetents, bet mazāk intuitīvs, mazāk “dzīvs” un dažos gadījumos mazāk noderīgs nekā iepriekšējie modeļi, piemēram, GPT-4o. Daži uzņēmuma klienti klusi pieprasīja piekļuvi vecākām versijām.

Kas neizdevās: Mērogošana kā inteliģences starpniekserveris
Neizdevās nevis modeļa veiktspēja atsevišķi, bet gan pārliecība, ka intelekta pieaugums turpinās lineāri mērogot ar papildu aprēķiniem un datiem. GPT-5 atklāja plato: uzlabojumi kļuva pakāpeniski, dārgi un nevienmērīgi dažādos uzdevumos. Secinājumu izmaksas pieauga ātrāk nekā uztvertā vērtība, radot spriedzi starp tehniskajiem sasniegumiem un praktisko lietderību.

Eksperti palaiduši garām acīmredzamo trūkumu: Samazinās peļņa un modeļa sabrukums
Eksperti par zemu novērtēja sintētisko datu piesātinājuma ietekmi. Tā kā jaunākie modeļi arvien vairāk apmāca AI ģenerētu saturu, dispersija sabrūk. Tā vietā, lai apgūtu jaunas struktūras, modeļi nostiprina esošās. Vairāk aprēķinu pastiprina modeļa blīvumu, nevis ieskatu. Tas netika ņemts vērā, jo kopējie kritēriji turpināja uzlaboties, maskējot novitātes, intuīcijas un vispārinājuma samazināšanos.