Epic Fail: 5 algoritmu snafus, kas atstāja pasauli apdullināti

Mūsdienu hipertehniskajā ainavā saruna par mākslīgo intelektu (AI) un tehnoloģiju attīstību ir neizbēgama, sasaucoties ar tādām frāzēm kā “AI ir neticami!” “Dati ir jaunais zelts!” un mūžīgais sakāmvārds: “AI pārņems visus mūsu darbus!” Lai gan šie noskaņojumi galu galā var izrādīties patiesi, pašreizējā realitāte liecina, ka mākslīgais intelekts joprojām ir tikai sākumstadijā, ko raksturo neregulāras neveiksmes un, pieņemsim, dažas atklāti jautras kļūdas. Tāpat kā mazs bērns, kurš sper pirmos soļus, mākslīgais intelekts noteikti ir paklupis, paceļot uzacis un izraisot smieklus.

Apskatīsim vēl 5 interesantākos gadījumus!

Kļūdu komēdijas atklāšana: AI un Covid-19 noteikšana

Kamēr pasaule cīnījās ar COVID-19 izaicinājumiem, daudzas veselības aprūpes organizācijas centās izstrādāt AI, kas spēj atklāt vīrusu pacientiem. tomēr MIT tehnoloģiju pārskata dokuments izgaismo daudzās neveiksmes šajos mēģinājumos. Pamatproblēma? AI neparastā spēja apmācīt sevi, izmantojot pilnīgi bezjēdzīgus, nebūtiskus datus, noved pie ļoti mulsinošu lēmumu pieņemšanas.

Piemēram, viens pētnieks atklāja, ka mākslīgais intelekts, cenšoties paredzēt Covid-19 klātbūtni, fiksēja, vai pacienti guļ vai stāv kājās. Kāpēc tu jautā? Ir loģiski, ka AI ievadītie dati koncentrējās uz ļoti slimiem pacientiem, kuri, saprotams, atveseļojās gultā; izveidojot modeli, kas ieteica ikvienam piecelties kājās un ikvienam, kas guļ, bija slims. Sašķiebtie apmācības dati ietekmēja tās lēmumu pieņemšanas procesu, parādot AI prasmi izmantot patvaļīgus modeļus. Šādu kļūdu labošana nav viegls uzdevums. Tas nav jautājums par vienas koda rindiņas pielāgošanu; sarežģītība slēpjas sarežģītajā savstarpēji atkarīgās kodēšanas tīklā. Novērsiet vienu problēmu, un mākslīgais intelekts var vienkārši izgudrot jaunu, iespējams, pielīdzinot COVID-19 smagumu ar jostas vai kaklasaites klātbūtni!

Microsoft neveiksme: kad mākslīgais intelekts piebalsoja Hitleram

Microsoft iebrukums mākslīgā intelekta jomā, īpaši ar tērzēšanas robotu “Tay”, parāda šīs tehnoloģijas iespējamās nepilnības. Tay tika izstrādāts, lai līdzinātos tūkstošgades vecumam, mācoties no sociālo mediju mijiedarbības tādās platformās kā Twitter (tagad X), Kik un GroupMe. AI kontekstuālās izpratnes trūkums lika Tajam svārstīties starp tādiem apgalvojumiem kā “Cilvēki ir lieliski!” šokējoši: “Hitleram bija taisnība.” Kā nejūtīgs rīks AI vienkārši pamanīja, ka visā tās datu bankā, kad kāds teica “Hitlers”, nākamais visizplatītākais vārds bija “bija” un nākamais visizplatītākais vārds pēc tam bija “pareizi”. Tas bija gadījums, kad AI pieņēma atkārtotus modeļus, neaptverot sekas. Šis incidents uzsver vajadzību pēc stingriem filtriem, izvietojot AI, jo pat īslaicīga pārtraukuma rezultātā var rasties netīša un šajā gadījumā aizskaroša valoda.

Facebook algoritmiskās kļūdas: neparedzēta saistība ar naidu

Līdzīgā neveiksmīgā incidentā Facebook, platforma, kas ir sinonīms sociālajai saiknei, tika pārbaudīta, kad tika atklāts, ka tā reklāmas algoritms ļāva zīmoliem mērķēt uz konkrētu demogrāfisko grupu ar naida pilnu, antisemītisku saturu. Kā ziņo tādas publikācijas kā Šīferis, Buzzfeedun ProPublica, platforma automātiski apstiprināja neizskaidrojami pielāgotus filtrus, piemēram, “ebreju nīdēji” un “Hitlers neko sliktu nedarīja”, un tie tika nekontrolēti, maksājot tikai 30 ASV dolārus — vienkārši tāpēc, ka tehnoloģija nezināja neko labāku. Lai gan cilvēku ļaunprātīgai sistēmai noteikti bija nozīme, AI tendence atdarināt modeļus un izprast matemātiskās asociācijas, kas izplatītas tās apmācības datos, problēmu saasināja. Vēstījums un mācība šeit ir skaidra: AI ir nepieciešams modrs cilvēka mērenība, lai novērstu kaitīga satura saglabāšanos.

AI's Brush ar kriminālo profilēšanu: ne gluži Šerloks

AI cīņa ar attēlu atpazīšanas virsmām pretterorisma un pretnoziedzības programmatūras jomā. Personu neselektīva identificēšana par teroristiem vai noziedzniekiem, jo ​​īpaši ar aizspriedumiem pret noteiktiem demogrāfiskajiem rādītājiem, uzsver AI ierobežoto izpratni par būtiskām iezīmēm. Realitāte ir tāda, ka šī mašīnmācītā tehnoloģija ir tik gudra, cik tā tiek ievadīta, un tas tikai palīdz izcelt sistēmisku problēmu pastāvīgo izplatību mūsu globālajā sabiedrībā. Ja lielākā daļa vēsturiskās informācijas vai dialoga, kas pastāv, liek domāt, ka noteiktas ādas krāsas, kultūras, dzimumi vai ticības pēc būtības ir sliktas vai labas, tad mākslīgajam intelektam nav ko vairāk mācīties, kā tikai statistiski parādīto. Diemžēl tas ir novedis pie gadījumiem, kad AI tehnoloģija automātiski pastiprina sociālo nevienlīdzību autovadītāja apliecību atņemšana, pamatojoties uz rasiun nepietiekami pārstāvētas sievietes un minoritāšu grupas veselības aprūpes modelēšanā.

Tomēr šādas nepareizas identifikācijas sekas vairāk nekā uzsver vajadzību pēc cilvēka iejaukšanās no apmācītu speciālistu puses, piemēram, tiem, kuriem ir tiešsaistes maģistra grāds analītikāizšķirošos lēmumu pieņemšanas procesos.

Kad AI nemiero: izstrādā savu valodu

Ārkārtīgi dīvainā notikumu pavērsienā Facebook AI eksperiments, kurā piedalījās tērzēšanas roboti Bobs un Alise, savulaik izraisīja no angļu valodas pilnīgi neatkarīgas valodas izveide. Veicot uzdevumu, kas izstrādāts, lai palīdzētu šiem tērzēšanas robotiem (AI tehnoloģija, kas var sazināties gan ar datoriem, gan cilvēkiem) “sarunu” praksē, un viņiem netika doti konkrēti norādījumi par vēlamo valodu, Bobs un Alise galu galā uzskatīja, ka angļu valoda ir viņiem trūkst “atlīdzības” un viņi ir izveidojuši savus saziņas līdzekļus. Lai gan tas parāda AI radošo potenciālu, tas arī izceļ tā atdalīšanu no cilvēka izpratnes, jo “atlīdzības” jēdziens joprojām ir neticami nenotverams.

Lielais fināls: AI dīvainību aptveršana

Atkārtota tēma šajās anekdotēs ir nenoliedzams fakts, ka AI ir rīks, nevis nevainojams orākuls – it īpaši tā pašreizējā stāvoklī. Tai raksturīgās problēmas izriet no matemātiskām sarežģītībām un tīrās neiespējamības paredzēt katru iedomājamo scenāriju. Mēģinājums rakstīt filtrus katrai niansei ir sīzifisks uzdevums, un pat ja tas tiek paveikts, to funkcionalitātes pārraudzība kļūst par nepraktisku varoņdarbu.

Rezumējot, iespējams, galvenais ir AI stipro un ierobežojumu atzīšana. Tā vietā, lai uzticētu tai visus lēmumu pieņemšanas procesus, atzīsim tās izcilību tādās jomās kā valodas izgudrošana un radošās idejas. Atstājiet sarežģītos, niansētos cilvēku darbus spējīgu cilvēku profesionāļu rokās, kas ir bruņoti ar zināšanām un patiesu izpratni par sarežģītību, ko AI, neskatoties uz savu spožumu, joprojām cenšas saprast. Tā ir harmoniska partnerība, kurā cilvēki virza tehnoloģiju gājienu, ļaujot abiem attīstīties savās jomās.