OpenAI, DeepMind og Anthropic for å gi Storbritannia tidlig tilgang til grunnleggende modeller for AI-sikkerhetsforskning
Etter den britiske regjeringens kunngjøring forrige uke om at de planlegger å arrangere et “globalt” AI-sikkerhetstoppmøte denne høsten, har statsminister Rishi Sunak startet London Tech Week med enda en nyhet – og forteller konferansegjengere at OpenAI, Google DeepMind og Anthropic har forpliktet seg å gi “tidlig eller prioritert tilgang” til deres AI-modeller for å støtte forskning på evaluering og sikkerhet.
Sunak har hatt en akselerert konvertering til AI-sikkerhetsemnet de siste ukene, etter en rekke intervensjoner fra AI-giganter som advarer om den eksistensielle risikoen og til og med utryddelsesnivået teknologien kan utgjøre hvis den ikke er ordentlig regulert.
«Vi kommer til å gjøre nyskapende [AI] sikkerhetsforskning her i Storbritannia», lovet Sunak i dag. “Med 100 millioner pund til vår ekspertgruppe, dedikerer vi mer midler til AI-sikkerhet enn noen annen regjering.
Denne arbeidsgruppen for AI-sikkerhet vil være fokusert på AI-fundamentmodeller, sa regjeringen også.
Med £100 millioner til vår AI Taskforce, dedikerer vi mer midler til AI-sikkerhet enn noe annet land i verden.
Vi vil også samarbeide med @DeepMind, @OpenAI og @Anthropic som vil gi oss tidlig eller prioritert tilgang til modeller for forsknings- og sikkerhetsformål. pic.twitter.com/SKypEisfXX
— Rishi Sunak (@RishiSunak) 12. juni 2023
“Vi jobber med grenselaboratoriene – Google DeepMind, OpenAI og Anthropic,” la Sunak til. “Og jeg er glad for å kunngjøre at de har forpliktet seg til å gi tidlig eller prioritert tilgang til modeller for forsknings- og sikkerhetsformål for å bidra til å bygge bedre evalueringer og hjelpe oss å bedre forstå mulighetene og risikoene ved disse systemene.”
Statsministeren gjentok også sin tidligere kunngjøring om det kommende AI-sikkerhetstoppmøtet, og forsøkte å sammenligne innsatsen med COP-klimakonferansene som tar sikte på å oppnå global innkjøp for å takle klimaendringer.
“Akkurat som vi forenes gjennom COP for å takle klimaendringer, så vil Storbritannia være vertskap for det første toppmøtet noensinne om global AI-sikkerhet senere i år,” sa han og la til: “Jeg ønsker å gjøre Storbritannia til ikke bare det intellektuelle hjemmet, men det geografiske hjemmet , av global AI-sikkerhetsregulering.”
Evangelisering av AI-sikkerhet er et markant girskifte for Sunaks regjering.
Så sent som i mars var den i full AI-cheerleader-modus – og sa i en hvitbok da at den favoriserte “en pro-innovasjonstilnærming til AI-regulering”. Tilnærmingen som er beskrevet i papiret, bagatelliserte sikkerhetshensyn ved å unngå behovet for skreddersydde lover for kunstig intelligens (eller en dedikert AI-vakthund) til fordel for å fastsette noen få “fleksible prinsipper”. Regjeringen foreslo også at tilsyn med AI-apper bør utføres av eksisterende reguleringsorganer, som antitrust-vakthunden og databeskyttelsesmyndigheten.
Spol frem noen måneder, og Sunank snakker nå om å ønske at Storbritannia skal huse en global AI-sikkerhetsvakthund. Eller, i det minste, at de vil at Storbritannia skal eie AI-sikkerhetssamtalen ved å dominere forskning på hvordan man kan evaluere resultatene av læringsalgoritmer.
Raske utviklinger innen generativ AI kombinert med offentlige uttalelser fra en rekke teknologigiganter og AI-bransjefigurer som advarer om at teknologien kan komme ut av kontroll, ser ut til å ha ført til en rask nyvurdering av strategien i Downing Street.
Det er også bemerkelsesverdig at AI-giganter har bøyd Sunaks øre personlig de siste ukene, med møter mellom statsministeren og administrerende direktører for OpenAI, DeepMind og Anthropic kort tid før regjeringens stemningsmusikk på AI endret seg.
Hvis denne trioen av AI-giganter holder fast ved sine forpliktelser om å gi Storbritannia avansert tilgang til modellene deres, er det en sjanse for landet til å lede på forskning for å utvikle effektive evaluerings- og revisjonsteknikker – inkludert før noen lovgivende tilsynsregimer som krever algoritmisk åpenhet har snurt. opp andre steder (EUs utkast til AI-lov forventes ikke å være i juridisk kraft før i 2026, for eksempel; selv om EUs Digital Services Act allerede er i kraft og allerede krever en viss algoritmisk åpenhet fra teknologigiganter).
Samtidig er det en risiko for at Storbritannia gjør seg selv sårbar for industriens fangst av sin begynnende AI-sikkerhetsinnsats. Og hvis AI-giganter kommer til å dominere samtalen rundt AI-sikkerhetsforskning ved å gi selektiv tilgang til systemene deres, kan de være godt posisjonert til å forme eventuelle fremtidige britiske AI-regler som vil gjelde for deres virksomheter.
Nær involvering av AI-teknologigiganter i offentlig finansiert forskning på sikkerheten til deres kommersielle teknologier før ethvert juridisk bindende AI-sikkerhetsrammeverk blir brukt på dem, antyder at de i det minste vil ha rom for å ramme hvordan AI-sikkerhet ses på og hvilke komponenter, emner og temaer blir prioritert (og som derfor blir bagatellisert). Og ved å påvirke hva slags forskning som skjer siden det kan være basert på hvor mye tilgang de gir.
I mellomtiden har AI-etikere lenge advart om at overskriftsfangende frykt om risikoen “superintelligente” AI-er kan utgjøre for mennesker, overdøver diskusjonen om skader fra den virkelige verden som eksisterende AI-teknologier allerede genererer, inkludert skjevhet og diskriminering, misbruk av personvern, brudd på opphavsrett og miljøressurser utnyttelse.
Så selv om den britiske regjeringen kan se på AI-giganters buy-in som et PR-kupp, hvis AI-toppmøtet og bredere AI-sikkerhetsinnsats skal gi robuste og troverdige resultater, må det sikre involvering av uavhengige forskere, sivilsamfunnsgrupper og grupper som er er uforholdsmessig utsatt for skade fra automatisering, ikke bare utbasunerer planen for et partnerskap mellom «briljante AI-selskaper» og lokale akademikere – gitt at akademisk forskning allerede ofte er avhengig av finansiering fra teknologigiganter.