Multiverse Computing, AI startēšana, kas atrodas San Sebastianā, Spānijā, ir piesaistījis 189 miljonus eiro (apmēram 217 miljonus dolāru), lai risinātu vienu no uzpūstajiem lielo valodu modeļiem (LLMS), uzņēmums paziņoja ceturtdien
Finansēšanas kārtu vadīja Bulhound Capital, un tajā bija iekļauta HP Inc., ForgePoint Capital un Toshiba dalība. Uzņēmums saka, ka jaunais kapitāls palīdzēs mērogot savu saspiešanas tehnoloģiju, kas spēj sarūk.
Multiverse Computing nesen ieviesa jaunu kompresijas rīku ar nosaukumu Compactifai, apgalvojot, ka tas var samazināt lielo valodu modeļus (LLMS) meta lamu līdz pat 95%, nesāpinot veiktspēju. Praktiski tas nozīmē, ka uzņēmumi var samazināt ar AI saistītās izmaksas pat par 80%.
Pēc gadu ilgas attīstības un pilota izvietošanas uzņēmums ir gatavs mērogam ar jaunu starptautisko un stratēģisko atbalstītāju kārtas palīdzību.
Multiverse apvieno idejas no kvantu fizikas un mašīnu apguves, lai sasniegtu šos rezultātus, lai gan tehnoloģijai nav nepieciešams kvantu dators. Tas ir veidots, lai atdarinātu, kā uzvedas kvantu sistēmas, bet darbojas ar klasisko aparatūru.
Izmantojot šo jaunāko kārtu, Multiverse kļūst par lielāko AI startup Spānijā un pievienojas tādu Eiropas AI smagsvaru rindām kā Mistral, Aleph Alpha, Synthesia, pie baseina un Owkin, ziņoja Reuters.
Uzņēmums jau ir izlaidis saspiestas galveno atvērtā pirmkoda modeļu versijas, ieskaitot Lamu, DeepSeek un Mistral, un drīz plāno pievienot vairāk. Tās izpilddirektors Enrique Lizaso Olmos saka, ka viņi ir vērsti uz modeļu optimizēšanu, kurus uzņēmumi jau izmanto.
“Mēs esam koncentrējušies tikai uz visvairāk izmantoto atvērtā koda LLM saspiešanu-tiem, kurus uzņēmumi jau izmanto,” sacīja Lizaso Olmoss. “Kad jūs dodaties uz korporāciju, vairums no viņiem izmanto LLAMA modeļu saimi.”
Multiverse rīks jau ir pieejams Amazon Web Services AI Marketplace, tāpēc uzņēmumiem ir vieglāk pārbaudīt un izvietot bez lielām izmaiņām viņu esošajā kaudzē.
Kā multiverse samazina uzpūstu LLM, lai samazinātu AI izmaksas
Pamatproblēma Multiverse ir risināta: LLMS ir dārgi darboties. Parasti viņi paļaujas uz lieljaudas mākoņu infrastruktūru, kas palielina enerģijas rēķinus un ierobežo pieņemšanu. Kamēr citas kompresijas metodes, piemēram, kvantēšana un atzarošana, mēģina atvieglot slodzi, tās bieži upurē veiktspēju procesā.
Compactifai izvēlas citu ceļu. Tikai samazināšanas modeļu vietā tas izmanto kvantu iedvesmotu paņēmienu ar nosaukumu Tensor tīkli, lai pārdomātu, kā ir strukturēti neironu tīkli. Rezultāts: mazāki, ātrāki un lētāki modeļi, kas joprojām sniedz vienādus rezultātus. Pēc Multiverse teiktā, tā saspiestie modeļi darbojas 4 līdz 12 reizes ātrāk un samazina secinājumu izmaksas par 50% līdz 80%.
Un tas nav tikai par izmaksām. Šie mazāki modeļi ir pietiekami viegli, lai darbotos ne tikai mākoņa vai uzņēmuma datu centros, bet arī vietējās mašīnās – laptatoros, viedtālruņos, transportlīdzekļos, dronos, pat aveņu PI dēļos.
“Dominējošā gudrība ir tāda, ka sarūkošie LLM nāk par maksu. Multiverse to maina,” sacīja izpilddirektors Enrique Lizaso Olmos. “Tas, kas sākās kā izrāviens modeļa saspiešanā, ātri izrādījās pārveidojošs, AI izvietošanas laikā atslēdzot jaunu efektivitāti un ņemot ātru pieņemšanu par spēju radikāli samazināt aparatūras prasības AI modeļu palaišanai.”
Compactifai zinātne izriet no līdzdibinātāja Román Orús, kurš palīdzēja pionierim pionierim tensoru tīklu pieejai. “Pirmo reizi vēsturē mēs varam profilēt neironu tīkla iekšējo darbību, lai novērstu miljardiem nepatiesu korelāciju, lai patiesi optimizētu visu veidu AI modeļus,” sacīja Orús.
🚀 Vai vēlaties, lai jūsu stāsts būtu redzams?
Iegūstiet tūkstošiem dibinātāju, investoru, PE firmas, tehnoloģiju vadītāju, lēmumu pieņēmēju un tehnoloģiju lasītāju priekšā, iesniedzot savu stāstu Techstarts.comApvidū
Piedāvājiet