Human.org, starta, veidojot platformu, lai pierādītu, ka esat cilvēks, nevis AI, iegūst 7,3 miljonus USD iepriekšējā sēklai

Openai veica viļņus, atklājot Chatgpt, iepazīstinot ar pasauli ar ģeneratīvu AI, kas spēj rīkot dabiskas, cilvēka līdzīgas sarunas. Bet tagad mēs redzam pāreju no vienkāršiem tērzēšanas robotiem uz sarežģītākiem AI aģentiem – sistēmām, kas paredzētas uzdevumu veikšanai, lēmumu pieņemšanai un pat rīkoties cilvēku vārdā ar minimālu uzraudzību.

Šie aģenti pārsniedz atbildēšanu uz jautājumiem; Viņi pārvalda grafikus, apstrādā klientu apkalpošanu un pat tirdzniecības krājumus. Tā kā AI aģenti kļūst autonomāki un integrēti mūsu ikdienas dzīvē, rodas kritisks jautājums: kā mēs zinām, kurš ir aiz ekrāna – persona vai mašīna?

Tomēr, tā kā AI aģenti ir tuvāk cilvēka intelekta atbilstībai, paliek acīmredzama problēma: nav skaidra veida, kā pārbaudīt, vai tiešsaistes aktieris ir reāla persona, AI, kas strādā kāda vārdā, vai kas patiesībā ir šī persona.

AI izlīdzināšana: uzticības problēma starp cilvēkiem un AI

AI izlīdzināšana (AIA) ir mūsu laikmeta tehno-sociālais izaicinājums. Tāpēc Human.org stājas pie risinājuma – veidojot infrastruktūru, lai AI sistēmas kontrolētu un saskaņotas ar cilvēciskajām vērtībām. Tās protokols darbojas uz 1. slāņa blokķēdes, izveidojot publisku, pārbaudāmu identitātes sistēmu gan cilvēkiem, gan AI aģentiem. Tas nodrošina pārredzamību, atbildību un, pats galvenais, ka cilvēki kontrolē.

Investori redz steidzamību, un Human.org tikko ir piesaistījis 7,3 miljonus dolāru iepriekšēju sēklu finansējumu no tādiem atbalstītājiem kā HF0, Soma Capital, Spearhead, Pioneer Fund, Hummingbird VC un ievērojamiem eņģeļiem, piemēram, Val Vavilov (Bitfury), James Tamplin (HF0) , un Sheridan Clayborne (Lendtable).

Human.org, kuru 2023. gadā dibināja 23 gadus vecais seriālais uzņēmējs Kirils Averijs, ir pirmā AI drošības laboratorija, kas koncentrējas uz AI izlīdzināšanas problēmas risināšanu, izmantojot decentralizētu trasta infrastruktūru. Uzņēmums plāno ieviest savu protokolu līdz 2025. gada 2. ceturksnim.

“Mēs sākām pasaulē pirmo uz produktu balstīto AI drošības laboratoriju ar vienu mērķi: AIA risināšanu, lai labotu uzticības krīzi un ļautu AI un cilvēkiem līdzāspastāvēt kopā,” savā vietnē sacīja Human.org.

Kirila uzņēmējdarbības ceļojums sākās jauns. Viņš sāka veidot lietotnes pulksten 11, imigrēja uz ASV 17 gadu vecumā, lai pievienotos Y Combinator kā vienu no tā jaunākajiem solo dibinātājiem, un vēlāk atzina kritisko nepieciešamību pēc AI atbildības, atrodoties HF0, augstākā AI starta uzturēšanās rezidentūrā Sanfrancisko.

Pēdējos divus gadus Human.org ir izstrādājis blokķēdes un identitātes protokolu, kas garantē pārredzamu un drošu mijiedarbību starp pārbaudītiem cilvēkiem un AI aģentiem, visiem bez valdības vai korporatīvas uzraudzības. Atbalstot no Pioneer fonda un vadot AI un kriptonauda investorus, Human.org liek pamatus nākotnei, kurā AI paliek cilvēku kontrolē. Sīkāku informāciju var atrast vietnē human.org.

Pieaugošie draudi: ar AI darbināma dezinformācija un neuzticēšanās

Pat pirms ģeneratīvās AI sākuma internets bija aizraujošs ar dezinformāciju, robotprogrammatūru un anonīmiem kontiem. Tagad, tuvojoties AI aģentiem, tuvojoties cilvēkam līdzīgajai komunikācijai, riski saasinās. Slikti aktieri varētu izvietot AI mērogā, lai veiktu manipulācijas ar tirgu, finansiālu krāpšanu un plaši izplatītas dezinformācijas kampaņas, kas varētu graut demokrātijas un destabilizēt valdības.

Pašlaik nav vispārēju veidu, kā pārbaudīt, vai AI aģents pārstāv reālu cilvēku, ne arī uzticamu metodi, kā šo sistēmu saukt pie atbildības. Tā kā AI radītais saturs turpina pārpludināt internetu, likmes pieaug ekonomikai, demokrātijām un personīgai mijiedarbībai.

“Pieaugusi sabiedrībā, kurā jūs nevarējāt uzticēties tiešsaistē redzētajam, es gribēju radīt cilvēku, lai nodrošinātu, ka cilvēka identitāte un izpausme paliek aizsargāta AI laikmetā,” sacīja Kirils Averijs, cilvēka dibinātājs un izpilddirektors. “Ja mēs tagad nerisinām šīs problēmas, mēs riskējam zaudēt kontroli pār sevi un savu sabiedrību.”

Human.org risinājums: uzticības slānis internetam

Human.org veido interneta uzticības infrastruktūru, lai pārliecinātos, ka AI sistēmas paliek atbildīgas. Atšķirībā no valdības vai korporatīvo kontrolētajiem risinājumiem, Human’s Blockchain protokols dod indivīdiem kontroli pār savu digitālo identitāti, saglabājot privātumu.

“AI aģentiem ir vajadzīga identitāte un autoritāte, un cilvēks to risina ar tehnoloģiju, kas visu uztur caurspīdīgu un drošu,” sacīja Ēriks Normens, Pioneer fonda ģenerālpartneris. “Kirill ir viena no lielākajām vīzijām no jebkura dibinātāja, kuru es pazīstu, un patiesi vēlas radīt kaut ko tādu, kas palīdz cilvēkiem labāk strādāt kopā.”

Protokols ir veidots ap piecām galvenajām tehnoloģijām. Pirmkārt, tur ir cilvēku tīkls, blokķēde, kas paredzēts, lai atvieglotu drošu mijiedarbību starp pārbaudītiem cilvēkiem un AI aģentiem. Papildinot to, ir cilvēka ID, kriptogrāfiski droša sistēma, kas nodrošina reālu cilvēka identitāti var pārliecināt. Lai sniegtu atbildību AI sistēmās, Human.org iepazīstina ar aģenta ID, kas ļauj izsekot AI aģentiem atpakaļ saviem cilvēku veidotājiem. Ekosistēma ietver arī humancoin – digitālo valūtu, kas izplatīta verificētiem lietotājiem, stimulējot uzticamu mijiedarbību. Visbeidzot, cilvēka lietotne kalpo kā lietotājam draudzīgs interfeiss, ļaujot indivīdiem pārvaldīt savu identitāti, veikt darījumus, droši pieteikties un mijiedarboties ar AI aģentiem kontrolētā vidē.