ActionAI piesaista $ 10 miljonus, lai novērstu uzņēmuma AI uzticības problēmu un nodrošinātu uzticamu automatizāciju

Uzņēmumi iegulda naudu AI, taču daudzi joprojām neuzticas tam, ko rada sistēmas. Šī spriedze sāk veidot nākamo jaunuzņēmumu vilni. ActionAI iekļūst šajā plaisā ar jaunu kapitālu, paziņojot par 10 miljonu ASV dolāru sēklu, ko atbalsta AAE investori, koncentrējoties uz to, lai mākslīgais intelekts būtu pietiekami uzticams izmantošanai ar augstu likmju līmeni.

Uzņēmumu vada Mirjama Hārta, Stenfordā apmācīta inženiere un bijusī datorzinātņu pasniedzēja, kuru daži var atpazīt no Netflix sērijas Mana neparastā dzīve. Viņas solis ir vienkāršs: uzņēmumi vēlas, lai AI veiktu kritiskas darbības, tomēr pārāk daudzas sistēmas joprojām rada kļūdas, novirzes vai klaji nepatiesus rezultātus. Šis risks ir palēninājis ieviešanu vietās, kur precizitāte ir vissvarīgākā.

Dati stāsta par līdzīgu stāstu. KPMG globālajā pētījumā atklājās, ka 66% darbinieku jau izmanto AI darbā, tomēr vairāk nekā puse to dara, nepārbaudot tā precizitāti. Kļūdas ir izplatītas. Tajā pašā laikā McKinsey & Company pētījumi liecina, ka lielākā daļa uzņēmumu AI projektu nekad nepāriet izmēģinājuma posmos. Šķērslis ir mazāk saistīts ar spējām, bet vairāk par uzticēšanos.

Pieaugot mākslīgā intelekta kļūdu skaitam, ActionAI piesaista USD 10 miljonus, lai nodrošinātu uzticamu uzņēmuma automatizāciju

ActionAI veido savu biznesu tieši šīs problēmas dēļ. Tās sistēma izseko datus katrā AI skursteņa slānī, lai savlaicīgi atklātu problēmas un parādītu, kur lietas sabojājas. Ideja ir padarīt kļūdas redzamas, nevis slēptas, dodot komandām skaidrāku ceļu, kā tās novērst, pirms tās nonāk ražošanā.

Viens no platformas elementiem ir vērsts uz to, ko uzņēmums sauc par “Izskaidrojamiem izņēmumiem” — sistēmu, kas nodrošina cilvēka pārskatīšanu, kad kaut kas noiet no ceļa. Tā vietā, lai ļautu sistēmai sasniegt apšaubāmus rezultātus, modelis atzīmē problēmu un sniedz skaidrojumu. Šī pieeja ir paredzēta, lai ierobežotu halucinācijas un sniegtu informāciju par to, kā tika pieņemti lēmumi.

Uzņēmums ir izveidojis uzraudzības rīkus, kas uzrauga sistēmas pēc izvietošanas, izsekojot veiktspējas izmaiņas, kad tiek ienāk jauni dati vai instrukcijas. Kad kaut kas novirzās, sistēma ir izstrādāta tā, lai to uztvertu reāllaikā. Nozarēs, kurās kļūdām ir reālas sekas, šāda redzamība varētu atšķirties starp piesardzīgu eksperimentēšanu un pilnīgu pieņemšanu.

Laiks atbilst pieaugošajam spiedienam uz uzņēmumiem, lai tie gūtu lielāku labumu no AI. Daudzi uzņēmumi saskaras ar neefektivitāti, kas samazina darbības izmaksas, un automatizācija piedāvā iespēju šos zaudējumus samazināt. Tomēr joprojām pastāv vilcināšanās par kritisko procesu nodošanu bez skaidriem drošības pasākumiem.

“AI apstrādā arvien sarežģītākus uzdevumus ar ļoti sensitīviem vai personas datiem bez pietiekamas uzraudzības vai atbildības,” sacīja Mirjama Hārta, Action AI izpilddirektore. “ActionAI padara AI atbildīgu jau no pirmās dienas. Sākot ar sākotnēji ievadītajiem datiem, mēs pārskatām, precizējam un aizsargājam informāciju, kas ir AI sistēmas pamatā. Pēc tam mūsu uzticamības arhitektūra novērš AI ievainojamības, pirms tās nonāk ražošanā. Tas nodrošina AI automatizāciju ar pārredzamību un uzticamību.”

Hārts pašreizējo brīdi uzskata par kompromisu, ko daudzi uzņēmumi ir spiesti pieņemt: virzīties uz priekšu ar AI un dzīvot ar tā trūkumiem vai atturēties un riskēt atpalikt. Viņas arguments ir tāds, ka neviena no iespējām nedarbojas ilgtermiņā.

“Uzņēmumi saskaras ar AI ieviešanas dihotomiju, vienlaikus pieņemot neuzticamību, kas tai ir līdzās. AI pilnveidojoties, mums ir jānodrošina, ka tam var uzticēties. Tas ir tas, ko ActionAI nodrošina: drošu, caurspīdīgu un uzticamu AI uzņēmuma misijai kritiskiem lietošanas gadījumiem.”

Startup ir vērsta uz nozarēm, kurās kļūdas ir dārgas, tostarp finanšu, ražošanas, mazumtirdzniecības, apdrošināšanas, loģistikas un juridiskās sistēmas. Šādās vidēs viena nepareiza izvade var izraisīt reālas finansiālas vai juridiskas sekas. Šī realitāte ir likusi daudzām organizācijām būt piesardzīgām, pat ja interese par AI turpina pieaugt.

ActionAI likme ir vienkārša: ja uzticība kļūst par trūkstošo uzņēmuma AI slāni, uzņēmumi, kas to risina, varētu veidot tehnoloģiju plašā izvietošanu.