Apple ir paziņojis par plāniem apstrādāt AI datus “mākoņa melnajā kastē”. Šīs jaunās sistēmas mērķis ir ievērojami uzlabot lietotāju privātumu, padarot datus nepieejamus pat Apple darbiniekiem.
Apple “mākoņu melnā kaste”, lai uzlabotu privātumu
Tradicionāli AI izstrāde ietver apmācības modeļus lielām datu kopām, kas glabājas mākonī. Lai gan šīs datu kopas bieži ir anonimizētas, tajās var būt atlikušā informācija, kas kopā ar citiem datu punktiem var atklāt lietotāju identitātes. Piemēram, lietotāja atrašanās vietas datus un mūzikas preferences var izsekot līdz tiem.
Apple piedāvātais “melnās kastes” risinājums ietver droša anklāva izveidi mākonī īpaši AI datu apstrādei. Secure Enclave — aparatūras un programmatūras komponents, kas jau ir pieejams Apple ierīcēs, piemēram, iPhone un iPad, darbojas kā droša zona ierīces procesorā, kas paredzēts, lai izolētu sensitīvus datus, piemēram, pirkstu nospiedumus, sejas atpazīšanas datus un šifrēšanas atslēgas.
Šis mākoņu apstrādes anklāvs, iespējams, būtu īpašs aparatūras komponents datu centrā. Fiziski atsevišķi no pārējās mākoņa infrastruktūras. AI modeļu apmācības dati atrodas tikai šajā drošajā anklāvā, nodrošinot, ka hakeri vai kāds cits nevar piekļūt neapstrādātajai lietotāja informācijai.
Privātuma ekspertu viedokļi par Apple AI melno kasti dalās
Lai gan Apple mākoņa melnās kastes priekšlikums varētu mainīt privātumu saglabājošu AI, ir arī daži izaicinājumi, kas jāņem vērā. Viena no bažām ir iespējamā ietekme uz AI apstrādes efektivitāti. Šifrēšanas un atšifrēšanas procesi var radīt papildu izmaksas, potenciāli palēninot AI modeļu apmācību un izpildi.
Vēl viens izaicinājums ir nodrošināt šifrēšanas atslēgu drošību. Ja šīs atslēgas tiek apdraudētas, visa sistēma var kļūt neefektīva. Turklāt daži apgalvo, ka pilnībā šifrēta sistēma traucē identificēt un novērst AI modeļu drošības ievainojamības. Apple ir jārisina visas šīs problēmas, lai nodrošinātu patiesi drošu AI datu sistēmu.