Hvordan konfidensiell databehandling kan sikre generativ AI-adopsjon

Ayal Yogev Bidragsyter Del på Twitter Ayal Yogev er medgründer og administrerende direktør for Anjuna, en konfidensiell dataplattform med flere skyer.

Generativ AI har potensialet til å endre alt. Det kan informere om nye produkter, selskaper, bransjer og til og med økonomier. Men det som gjør det annerledes og bedre enn “tradisjonell” AI, kan også gjøre det farlig.

Dens unike evne til å skape har åpnet opp for et helt nytt sett med sikkerhets- og personvernhensyn.

Bedrifter må plutselig stille seg selv nye spørsmål: Har jeg rettighetene til opplæringsdataene? Til modellen? Til utgangene? Har systemet selv rettigheter til data som blir opprettet i fremtiden? Hvordan beskyttes rettighetene til dette systemet? Hvordan styrer jeg datavern i en modell som bruker generativ AI? Listen fortsetter.

Det er ingen overraskelse at mange bedrifter går lett. Opplagte sikkerhets- og personvernsårbarheter kombinert med nøling med å stole på eksisterende Band-Aid-løsninger har presset mange til å forby disse verktøyene fullstendig. Men det er håp.

Konfidensiell databehandling – en ny tilnærming til datasikkerhet som beskytter data mens de er i bruk og sikrer kodeintegritet – er svaret på de mer komplekse og alvorlige sikkerhetsproblemene til store språkmodeller (LLM). Den er klar til å hjelpe bedrifter med å omfavne den fulle kraften til generativ AI uten å gå på akkord med sikkerheten. Før jeg forklarer, la oss først ta en titt på hva som gjør generativ AI unikt sårbar.

Generativ AI har kapasitet til å innta en hel bedrifts data, eller til og med en kunnskapsrik undergruppe, til en spørrende intelligent modell som gir helt nye ideer på trykk. Dette har stor appell, men det gjør det også ekstremt vanskelig for bedrifter å opprettholde kontroll over sine proprietære data og holde seg i samsvar med skiftende regulatoriske krav.

Beskyttelse av treningsdata og modeller må være toppprioritet; det er ikke lenger tilstrekkelig å kryptere felt i databaser eller rader på et skjema.

Denne konsentrasjonen av kunnskap og påfølgende generative resultater, uten tilstrekkelig datasikkerhet og tillitskontroll, kan utilsiktet bevæpne generativ AI for misbruk, tyveri og ulovlig bruk.

Faktisk mater ansatte i økende grad konfidensielle forretningsdokumenter, klientdata, kildekode og andre deler av regulert informasjon til LLM-er. Siden disse modellene er delvis trent på nye input, kan dette føre til store lekkasjer av immaterielle rettigheter ved brudd. Og hvis modellene i seg selv blir kompromittert, kan alt innhold som et selskap har vært juridisk eller kontraktsmessig forpliktet til å beskytte, også lekke. I verste fall vil tyveri av en modell og dens data tillate en konkurrent eller nasjonalstatsaktør å duplisere alt og stjele disse dataene.

Dette er høye innsatser. Gartner fant nylig at 41 % av organisasjonene har opplevd et AI-personvernbrudd eller sikkerhetshendelse – og over halvparten er et resultat av et datakompromittering fra en intern part. Fremkomsten av generativ AI vil garantert øke disse tallene.

Separat må bedrifter også følge med i utviklingen av personvernregler når de investerer i generativ AI. På tvers av bransjer er det et dypt ansvar og insentiv for å overholde datakravene. I helsevesenet, for eksempel, har AI-drevet personlig medisin et stort potensial når det gjelder å forbedre pasientresultater og generell effektivitet. Men leverandører og forskere må ha tilgang til og arbeide med store mengder sensitive pasientdata mens de fortsatt overholder kravene, noe som presenterer en ny dilemma.

For å møte disse utfordringene, og resten som uunngåelig vil oppstå, trenger generativ AI et nytt sikkerhetsgrunnlag. Beskyttelse av treningsdata og modeller må være toppprioritet; det er ikke lenger tilstrekkelig å kryptere felt i databaser eller rader på et skjema.

I scenarier der generative AI-utfall brukes til viktige beslutninger, vil bevis på integriteten til koden og dataene – og tilliten den formidler – være helt avgjørende, både for overholdelse og for potensielt juridisk ansvarshåndtering. Det må være en måte å gi lufttett beskyttelse for hele beregningen og tilstanden den kjører i.

Fremkomsten av “konfidensiell” generativ AI

Konfidensiell databehandling tilbyr en enkel, men likevel enormt kraftig vei ut av det som ellers ser ut til å være et vanskelig problem. Med konfidensiell databehandling er data og IP fullstendig isolert fra infrastruktureiere og gjort kun tilgjengelig for klarerte applikasjoner som kjører på klarerte CPUer. Personvernet er sikret gjennom kryptering, selv under utførelse.

Datasikkerhet og personvern blir iboende egenskaper ved cloud computing – så mye at selv om en ondsinnet angriper bryter infrastrukturdata, er IP og kode fullstendig usynlig for den dårlige aktøren. Dette er perfekt for generativ AI, som reduserer risikoen for sikkerhet, personvern og angrep.

Konfidensiell databehandling har i økende grad fått gjennomslag som en sikkerhetsspill-veksler. Alle store skyleverandører og brikkeprodusenter investerer i det, med ledere i Azure, AWS og GCP som alle proklamerer effektiviteten. Nå kan den samme teknologien som konverterer selv de mest standhaftige skyholdoutene være løsningen som hjelper generativ AI å ta av på en sikker måte. Ledere må begynne å ta det på alvor og forstå dets dype virkninger.

Med konfidensiell databehandling får bedrifter sikkerhet for at generative AI-modeller bare lærer på data de har tenkt å bruke, og ingenting annet. Trening med private datasett på tvers av et nettverk av pålitelige kilder på tvers av skyer gir full kontroll og trygghet. All informasjon, enten en inngang eller en utgang, forblir fullstendig beskyttet og bak bedriftens egne fire vegger.

Read More