Attiecības starp AI uzņēmumiem un ASV militārpersonām ieiet jaunā saspringtā fāzē. Vētras centrā ir Anthropic, Sanfrancisko bāzētais starta uzņēmums, kas pazīstams ar savu “AI drošības” uzmanību. Saskaņā ar neseno Axios ziņojumu, Pentagons pašlaik draud pārtraukt partnerattiecības ar Anthropic 200 miljonu ASV dolāru vērtībā, jo ir galvenās nesaskaņas: cik lielai kontrolei vajadzētu būt privātam uzņēmumam pār to, kā militārpersonas izmanto tās programmatūru, piemēram, Claude AI modeļus.
200 miljonu dolāru ultimāts: kāpēc Pentagons draud atcelt antropisko AI darījumu
Jau vairākus mēnešus Aizsardzības departaments (DoD) ir mudinājis četrus galvenos AI spēlētājus — Anthropic, OpenAI, Google un xAI — ļaut militārpersonām izmantot savus modeļus “visiem likumīgiem mērķiem”. Tas būtībā nozīmē standarta aizsargmargu pacelšanu, kas neļauj parastajiem lietotājiem piemērot mākslīgo intelektu tādām jutīgām jomām kā ieroču izstrāde, izlūkdatu vākšana vai kaujas lauka operācijas.
Pārskati liecina, ka OpenAI, Google un xAI ir parādījuši zināmu elastību. No otras puses, antropiskais ir visizturīgākais. Uzņēmums ir novilcis stingru līniju divām konkrētām robežām: tā Kloda modeļa izmantošanai amerikāņu masveida novērošanai un pilnībā autonomu ieroču izstrādei — sistēmām, kas var šaut bez cilvēka.
Spriedze pēc Maduro reida
Berze sasniedza viršanas punktu pēc ASV militārās operācijas, lai sagūstītu bijušo Venecuēlas prezidentu Nikolasu Maduro. The Wall Street Journal ziņoja, ka Pentagons izmantoja Klodu misijas laikā, sadarbojoties ar datu firmu Palantir. Šis incidents radīja iekšējos jautājumus uzņēmumā Anthropic.
Aizsardzības amatpersonas pauda neapmierinātību, kad Anthropic, iespējams, jautāja, vai viņu tehnoloģija ir iesaistīta reidā, kur notika “kinētiskā uguns” (kauja). Pentagons uzskata, ka šāda veida pārraudzība ir nerealizējama. Uzņēmums apgalvo, ka kaujinieki nevar apstāties, lai apspriestu atsevišķus lietošanas gadījumus ar programmatūras nodrošinātāju aktīvo darbību laikā.
Kultūras sadursme
Strīds izceļ nozīmīgu kultūras sadursmi. Amatpersonas, kuras citē Axios, ir raksturojušas Anthropic kā “ideoloģiskāko” no AI laboratorijām. Tiek ziņots, ka uzņēmumu pārvalda stingra iekšējā lietošanas politika, kas pat rada “iekšēju satraukumu” tā inženieru vidū saistībā ar militāro darbu. Tomēr Pentagons saskaras ar dilemmu: neskatoties uz berzi, amatpersonas atzīst, ka Klods šobrīd apsteidz savus konkurentus specializētajos valdības un slepenajos lietojumos.
Ja abas puses nevar panākt vienošanos, Pentagons ir ierosinājis, ka Anthropic varētu nosaukt par “piegādes ķēdes risku”. Tas varētu arī meklēt sakārtotu nomaiņu. Savukārt Anthropic apgalvo, ka ir apņēmusies ievērot nacionālo drošību. AI uzņēmums norāda, ka tas bija pirmais uzņēmums, kas ievietoja modeļus klasificētos tīklos. Pagaidām abas puses vēl runā.