Cīņa par to, kurš kontrolē robežas AI, tikko pārcēlās Pentagona iekšienē.
Uzņēmuma Anthropic 200 miljonu dolāru aizsardzības līgums tiek pārskatīts pēc tam, kad sarunas ar Aizsardzības ministriju ir apstājušās par tā modeļu izmantošanu. Pentagona pārstāvis CNBC apstiprināja, ka uzņēmuma darbs ar aģentūru tiek atkārtoti novērtēts, abām pusēm apspriežot turpmākos nosacījumus.
“Anthropic ir pretrunā ar Aizsardzības departamentu par to, kā būtu jāizmanto tā mākslīgā intelekta modeļi, un tās darbs ar aģentūru tiek “pārskatīts”, ziņoja CNBC, atsaucoties uz Pentagona pārstāvi.
Strīda centrā ir vienkāršs, bet ļoti svarīgs jautājums: vai militārpersonas var izmantot Anthropic modeļus kādam likumīgam mērķim, vai arī uzņēmums var novilkt robežas?
Antropisks vēlas ierobežojumus. Uzņēmums ir meklējis garantijas, ka tā modeļi netiks izmantoti autonomiem ieročiem vai “masveida amerikāņu izspiegošanai”, teikts Axios ziņojumā. DOD nostāja ir plašāka. Amatpersonas vēlas, lai modeļus būtu iespējams izvietot “visiem likumīgas lietošanas gadījumiem” bez ierobežojumiem.
“Ja kāds uzņēmums nevēlas to pieņemt, tā ir mūsu problēma,” saskaņā ar CNBC samitā Floridā sacīja Emīls Maikls, aizsardzības sekretāra vietnieks pētniecības un inženierzinātņu jautājumos. “Tas varētu radīt dinamiku, kad mēs sākam tos lietot un pierodam pie tā, kā šie modeļi darbojas, un, kad tas ir jāizmanto steidzamā situācijā, mēs to nevaram izmantot.”
Šie komentāri liecina par dziļākām bažām Pentagonā: atkarības risks. Ja modelis tiek iegults kritiskās sistēmās, piekļuve nevar būt atkarīga no pēdējā brīža politikas nesaskaņām.
AI kāršu atklāšana: antropiskā atbaidīšana uz Pentagona plašajām militārā lietojuma prasībām

Strīds starp Anthropic un ASV armiju neizcēlās vienas nakts laikā. Tas pastiprinājās nedēļas nogalē pēc tam, kad augstākās administrācijas amatpersonas paziņoja Axios, ka viņi apsver, vai bloķēt Silīcija ielejas starta darbību, lai militārpersonas pilnībā neizmantotu.
Berze sākas janvāra sākumā un atspoguļo dziļākas pārmaiņas Pentagona iekšienē. AI modeļi vairs nav šauri rīki, kas izstrādāti atsevišķiem uzdevumiem. Tās pašas vispārējas nozīmes sistēmas, ar kurām darbojas patērētāju tērzēšanas roboti, sāk parādīties aizsardzības programmatūras kaudzēm. Šī pārklāšanās rada smagus jautājumus. Modelis, kas apmācīts atbildēt uz gadījuma lietotāja uzvednēm, kādu dienu varētu sēdēt sistēmās, kas saistītas ar kaujas lauka lēmumiem. Ētiskās un darbības likmes krasi mainās, tiklīdz šī robeža izplūst.
Antropisks sēž retā stāvoklī. Saskaņā ar Semafor teikto, uzņēmums ir viens no nedaudzajiem lielajiem valodu modeļu nodrošinātājiem, kas ir apstiprināti klasificētām ASV valdības vidēm. Tās tehnoloģija ir pieejama, izmantojot Amazon Top Secret Cloud un Palantir mākslīgā intelekta platformu. Šis izplatīšanas ceļš ir tas, kā tiek ziņots, ka Anthropic Kloda modelis parādījās to amatpersonu ekrānos, kas uzrauga toreizējā Venecuēlas prezidenta Nikolasa Maduro sagrābšanu.
“Anthropic ir viens no nedaudzajiem “pierobežas” lielo valodu modeļiem, kas ir pieejami klasificētai lietošanai ASV valdībai, jo tas ir pieejams, izmantojot Amazon Top Secret Cloud un Palantir’s Artificial Intelligence Platform, kā rezultātā tā Kloda tērzēšanas robots nonāca to amatpersonu ekrānos, kas uzraudzīja toreizējā Venecuēlas prezidenta fora Nikolasa sagrābšanu,” ziņoja Sema Sema.
Šī epizode, ko daudzi demokrāti kritizēja kā nelikumīgu, izvērsās laikā, kad Silīcija ielejā tika atjaunota aktivitāte par valdības tehnoloģiju produktu izmantošanu. Debates neaprobežojas tikai ar antropu. Palantir ir saskārusies ar spiedienu Apvienotajā Karalistē un visā Eiropā par to, kā imigrācijas iestādes izmanto tās platformas. Plašāka spriedze, ar kuru pašlaik saskaras AI laboratorijas, ir skaidra: tiklīdz modeļi nonāk valdības infrastruktūrā, lietošanas kontroli kļūst grūtāk nošķirt no sabiedrības kontroles.
Pentagona centieni standartizēt AI piekļuvi visās sistēmās saskaras ar pieaugošo kustību tehnoloģiju iekšienē, lai novilktu ētiskas robežas. Tas, kas sākās kā līguma sarunas, ir kļuvuši par pārbaudi, cik lielu sviras efektu AI uzņēmumi saglabā, kad to modeļi ir iekļauti valsts drošības operācijās.
Anthropic ieņem unikālu vietu militārajā AI ekosistēmā. Kopš februāra tas ir vienīgais AI uzņēmums, kas ir izvietojis savus modeļus aģentūras klasificētajos tīklos un ir nodrošinājis pielāgotas versijas nacionālās drošības klientiem. Šis atbalsts padara strīdu vairāk nekā simbolisku. Tas skar aktīvo infrastruktūru.
Spriedze izriet no plašākiem Semafor ziņojumiem, kas uzsvēra berzi saistībā ar aizsardzības AI partnerībām. Uzņēmumi, piemēram, Palantir, ir izveidojuši dziļas saites ar valdību, un galvenie modeļu nodrošinātāji tagad sacenšas par līdzīgu ietekmi. Aizsardzības departaments strādā, lai standartizētu AI platformas un apstiprinātu konkrētus modeļus visās sistēmās. AI laboratorijām šiem lēmumiem ir reputācija un politiska nozīme.
Likmes sniedzas tālāk par antropisko. Pagājušajā gadā no DOD OpenAI, Google un xAI katram piešķīra līguma griestus līdz 200 miljoniem USD. Saskaņā ar vecāko aizsardzības ierēdņu teikto, šie uzņēmumi ir piekrituši atļaut to modeļus izmantot visiem likumīgiem mērķiem militāro neklasificētajās sistēmās. Viens uzņēmums ir vienojies par “visām sistēmām”.
Ja Anthropic atsakās no Pentagona noteikumiem, sekas var saasināties. Aģentūra varētu iecelt uzņēmumu par “piegādes ķēdes risku”, kas prasītu pārdevējiem un darbuzņēmējiem apliecināt, ka viņi nepaļaujas uz Anthropic modeļiem. Šī etiķete parasti tiek saistīta ar ārvalstu pretiniekiem. Tā piemērošana ASV jaunuzņēmumam nozīmētu nopietnu pārrāvumu.
Uzņēmums Anthropic, ko 2021. gadā dibināja bijušie OpenAI pētnieki un vadītāji, ir vislabāk pazīstams ar savu Kloda modeļu saimi. Uzņēmums nesen noslēdza masveida finansēšanas kārtu, kuras vērtība bija 380 miljardi USD, kas ir vairāk nekā divas reizes lielāka nekā septembrī. Tagad tas ir nacionālās AI stratēģijas centrā.
Anthropic pārstāvis sacīja, ka uzņēmumam ir “labticīgi produktīvas sarunas” ar DOD par to, kā “labot šīs sarežģītās problēmas”. Pārstāvis piebilda: “Anthropic ir apņēmies izmantot robežu AI, lai atbalstītu ASV nacionālo drošību.”
Šis strīds liecina par strukturālām izmaiņām AI. Aizsardzības iepirkumi kļūst par vienu no svarīgākajiem modeļu piegādātāju kaujas laukiem. Valdība vairs nepērk tikai instrumentus. Tas nosaka, kuri AI skursteņi kļūst par noklusētajiem valsts mērogā.
Rezultāts palīdzēs definēt trīs progresīvās mākslīgā intelekta joslas: patērētāju lietojumprogrammas, uzņēmumu darbplūsmas un valdības sistēmas ar stingru izsekojamību un darbības kontroli. Uzņēmumi, kas iegūst aizsardzības uzticību, varētu noenkurot ilgtermiņa infrastruktūru. Tie, kas pretojas, var aizsargāt savu zīmolu, bet zaudēt stratēģisku vietu.
Jaunuzņēmumiem, kas veido drošības, atbilstības, audita un pārvaldības līmeņus, šis brīdis paver jaunas robežas. Pieprasījums pāriet no spilgtām demonstrācijām uz politikas saskaņošanu un uzticamību zem spiediena.
Anthropic strīds ar Pentagonu nav saistīts tikai ar vienu līgumu. Runa ir par to, kurš izlemj, cik jaudīgs AI tiek izmantots augstas likmes vidēs, un vai laboratorijas, kas veido šīs sistēmas, var noteikt ierobežojumus, tiklīdz valdība sāks pieņemt.