Storbritannias AI-sikkerhetstoppmøte får tommel opp fra teknologigiganter
Gjør plass for et annet forum om AI-sikkerhet. Den britiske regjeringen har kunngjort at de vil innkalle til et “globalt” AI-toppmøte denne høsten med sikte på å bli enige om “sikkerhetstiltak for å evaluere og overvåke de viktigste risikoene fra AI”, som PR sier det.
Det er ingen ord om hvem som vil delta ennå – men regjeringen sier at de vil at diskusjonen skal inneholde “nøkkelland, ledende teknologiselskaper og forskere”.
“Toppmøtet, som arrangeres i Storbritannia denne høsten, vil vurdere risikoen ved AI, inkludert grensesystemer, og diskutere hvordan de kan reduseres gjennom internasjonalt koordinert handling. Det vil også gi en plattform for land til å jobbe sammen om å videreutvikle en felles tilnærming for å redusere disse risikoene,” legger den til.
Statsminister Rishi Sunak er i USA i dag hvor han, i henhold til regjeringens linje, vil møte president Biden og presse på for “felles ledelse” av teknologier som AI, blant annet om andre økonomisk viktige spørsmål.
Spesielt pressemeldingen som kunngjør Storbritannias ambisjon om å være vertskap for et globalt AI-toppmøte, samler samtidig et eget krav, vis-à-vis “globale selskaper som utvider sitt AI-arbeid i Storbritannia”, med regjeringen som setter søkelyset på utviklingen som OpenAI åpnet et kontor i London sist. uke.
PR er også dominert av hermetiske sitater fra teknologigiganter og AI-firmaer, med slike som Google DeepMind, Anthropic, Palantir og Faculty som gir ros til toppmøteplanen via støtteerklæringer fra seniorledere.
(For en smak av bransjens smiger innebygd i regjeringens PR, proklamerer DeepMinds Demis Hassabis Sunaks “Global Summit on AI Safety vil spille en kritisk rolle i å bringe sammen regjeringen, industrien, akademia og sivilsamfunnet”; Anthropics Dario Amodei berømmer statsministeren for «å bringe verden sammen for å finne svar og ha smarte samtaler»; og fakultetets Marc Warner antyder at Storbritannia er «perfekt plassert» for å gi «teknologisk lederskap» og «fremme internasjonalt samarbeid» – så, eh, gi den syke bøtta…)
Strategien som Storbritannia ser ut til å satse på her, er å posisjonere seg som AI-bransjens BFF (eller, vel, stooge) – på en måte som kan motvirke eksisterende internasjonale anstrengelser for å bli enige om meningsfulle rekkverk for AI hvis det ender opp med å drive en kile. mellom amerikansk side og andre internasjonale aktører.
Kunngjøringen av toppmøtet kommer omtrent to uker etter at Sunak møtte en rekke tekniske ledere som leder AI-giganter, inkludert Anthropics Amodei, DeepMinds Hassabis og OpenAIs Sam Altman. Hvoretter regjeringen plutselig begynte å kveine om eksistensiell AI-risiko, i en klar etterfølgelse av sci-fi-bekymringene AI-gigantene har kunngjort overfor ikke-eksisterende “superintelligente” AI-systemer – i et forsøk på å ramme debatten om AI sikkerhet ved å nullstille teoretiske fremtidige risikoer – samtidig som man bagatelliserer diskusjonen om faktiske skader forårsaket av AI her og nå (som personvernmisbruk, skjevhet, diskriminering og desinformasjon, brudd på opphavsrett og miljøskade, for å nevne noen).
Som et annet tegn på den overdådige AI-industriens kjærlighet til UK Plc rn, ble Palantirs administrerende direktør Alex Karp intervjuet på AI av BBC Radio 4s Today-program i morges, hvor han gjorde et poeng av å heve ros for Storbritannias “pragmatiske tilnærming til databeskyttelse” , som han sa det — fortsetter å sammenligne Storbritannias underhåndhevelse av personvernregler gunstig med EUs mer robuste håndhevelse av den generelle databeskyttelsesforordningen (som derimot raskt tvang ChatGPT til å gi brukerne mer informasjon og kontroller), i tillegg til å hevde at det vil «være mye mye vanskeligere for kontinentet å komme overens med store språkmodeller [than the UK]”.
Det gjenstår å se hva Biden-administrasjonen vil gjøre om Sunaks AI-sikkerhetstoppmøte. Eller, faktisk, om noen av betydning fra den amerikanske regjeringen vil delta. Men AI-giganter som for det meste er USA-baserte gjør absolutt AI-reguleringssamtalen over dammen.
Amerikanske lovgivere er fortsatt bekymret for byrden av AI-regulering på industrien – og er beviselig mer motvillige til å skynde seg inn med rekkverk enn for eksempel deres kolleger i EU.
Som et tredjeland for begge disse sidene, har Storbritannia et valg om å bestemme hvor de skal kaste hatten på internasjonale AI-regler. Alle tegnene tyder på at det har som mål å prøve å bruke dette emnet – og amerikanske AI-giganter – som en strategisk spak for å få et tettere forhold til USA, basert på å tilpasse seg mer utvannede AI-regler (forutsatt at USA godtar å spille dette spillet ).
Storbritannia er faktisk en sen konvertitt til diskusjonen om hvordan man regulerer AI. For bare noen måneder siden la den ut en AI-hvitbok som sa at den ikke så behovet for noen nye skreddersydde regler eller tilsynsorganer for AI – og foretrakk å legge ansvaret over på eksisterende overarbeidede regulatorer (uten å utvide budsjettene deres) ved å spørre dem til å utarbeide og gi kontekstspesifikk veiledning. Navnet på den hvitboken? “En pro-innovasjonstilnærming til AI-regulering.”
Det får også dette AI-toppmøtet til å bevege seg i en tid da regjeringer, regulatorer og lovgivere rundt om i verden allerede reagerer på økende alarm om sikkerhetsrisikoen som følger av hurtigutviklende maskinlæringsteknologier ved å mobilisere en rekke diskusjonsspor og initiativer med målet om å komme i gang. internasjonal avtale om sikkerhetstiltak og sikkerhetsstandarder.
OECD vedtok allerede AI-prinsipper helt tilbake i mai 2019. Mens FTC la ut AI-veiledning i april 2021. Og til og med det amerikanske handelsdepartementets National Telecommunications and Information Administration (NTIA) begynte å konsultere om hvordan man kan øke AI-ansvarligheten i april . FN ser også på AI.
Så er det G7-ledernes “Hiroshima-prosess” – et nylig spor som består av diskusjoner på kabinettnivå mellom G7-land om AI-styring som skal rapporteres innen slutten av året. Mens G7-land og andre før det lanserte Global Partnership on AI – som har som mål å fremme ansvarlig, menneskesentrisk utvikling og bruk av AI-teknologier ved å dele forskning og fremme internasjonalt samarbeid mot pålitelig AI.
Den europeiske union presenterte i mellomtiden sitt eget lovforslag for regulering av kunstig intelligens for over to år siden. Blokkens lovgivere er nå opptatt med å komme til enighet om en endelig tekst til det rammeverket – inkludert å vurdere hvordan det skal takle generativ AI – med politisk enighet om EUs AI-lov som etterstrebes innen utgangen av dette året. (Selv om pan-EU-loven ikke vil være i kraft i flere år etter det.)
EU og USA jobber også (eller i det minste snakker) sammen om en AI Code of Conduct som blir tenkt som et stopp-gap sett av frivillige standarder inntil lovgivningen kommer inn – gjør det via en transatlantisk snakkebutikk, kalt USA- EU Trade and Technology Council (TTC), et forum Storbritannia ikke er part i har forlatt EU etter Brexit-avstemningen.
Forrige uke sa EU at de ville begynne å utarbeide denne AI-kodeksen, og sa at de håpet å ha noe på papiret i løpet av få uker.
Selv om det var mindre klart etter TTC-møtet hvor mye buy-in den amerikanske siden var forpliktet til. Men amerikanske lovgivere var i rommet og snakket.
Da vi diskuterte AI-koden i en briefing med journalister i forrige uke, understreket EUs EVP Margrethe Vestager, som leder blokkens digitale strategi, hvordan dette EU-ledede initiativet veldig raskt kunne forme globale AI-rekkverk, og sa til journalister: “Hvis vi kan Begynn å skrive utkast med amerikanerne, resten av G7, inviterte gjester og få industrien til å melde seg på det – selvfølgelig også for oss med litt tredjepartsvalidering – så kan vi dekke en tredjedel av verdens befolkning innen en veldig, veldig kort tidsperiode. Og det kan være en god ting.”
Så blokken jobber tydeligvis i takt med å gripe muligheten til å bruke “Brussel-effekten” på førsteordens globale AI-regler.
EU-lovgivere kunngjorde også nylig et andre spor om AI-regulering: En AI-pakt som tar sikte på å få teknologiindustrien til å gå med på frivillig etterlevelse av bestemmelser som kommer ned i røret i den nevnte EU AI-loven før den lovgivningen er i juridisk kraft (som sannsynligvis vil ikke være før 2026, per Vestager).
Så EU er over hele AI-reguleringsstykket fra flere vinkler (hard lov, bransjekodeks, internasjonal kode og en nøkkeldeltaker i andre globale initiativer).
USA er også absolutt involvert i samtalen – om enn mens de holder seg på kjøligere avstand og holder kortene sine nærmere brystet, sannsynligvis på grunn av amerikanske AI-giganters lobbyvirksomhet.
Til sammenligning trekker Storbritannia bare på seg buksene mens de strever etter å ta igjen. (Etter at PR-en starter med en iøynefallende påstand om at Storbritannia vil være vertskap for “det første store globale toppmøtet om AI-sikkerhet”, fortsetter det med å yte leppeservice til noen av den eksisterende internasjonale innsatsen for AI-sikkerhet, i løpet av de siste flere år — med en forbigående omtale av «nylige diskusjoner på G7, OECD og Global Partnership om AI» som det antyder at toppmøtet i Storbritannia vil bygge på. Det er ingen omtale av EUs mangesidige innsats for kunstig intelligens; i stedet er det en brexit-smakstilsatt «porky». ‘ og hevder: “Vår avgang fra EU lar oss også handle raskere og smidigere som svar på dette raskt skiftende markedet.”)
Hvor viktig Storbritannias side med amerikansk kunstig intelligens-industri når det gjelder selvbetjente sikkerhetsregler kan være, gjenstår å se. Men det er en mulighet for Sunak til å drive en kile i EUs innsats for å bringe amerikanerne inn i en mer robust internasjonal AI-kode. Derfor all AI-industriens smiger.
Etter TTC-møtet mellom EU og amerikanske lovgivere, sa en EU-kilde til TechCrunch at diskusjonene avslørte divergerende tilnærminger – og sa at USA ikke virker klare til å regulere, mens de sa at blokken fortsatt er forpliktet til sitt etablerte syn om at en ansvarlig utrulling av AI krever robust og ambisiøs regulering.
Vi ble også fortalt at det er bekymring fra EU-siden om at diskusjoner om globale AI-prinsipper ikke ender opp med å bli utvannet til en laveste fellesnevner som kan ende opp med å undergrave det risikobaserte AI-lovens lovrammeverk som blokken har i toget.
Så det er kanskje mer på spill og å sykle på Sunaks AI Summit enn det som kan virke ved første rødme.