Forbrukergruppen oppfordrer EU til å raskt undersøke “risikoen ved generativ AI”

Europeiske regulatorer står ved et veiskille over hvordan AI vil bli regulert – og til slutt brukt kommersielt og ikke-kommersielt – i regionen. I dag veide EUs største forbrukergruppe, den europeiske forbrukerorganisasjonen (BEUC), inn med sin egen posisjon: Slutt å dra føttene dine, og “start hasteundersøkelser av risikoen ved generativ AI” nå, heter det.

“Generativ AI som ChatGPT har åpnet opp alle slags muligheter for forbrukere, men det er alvorlige bekymringer for hvordan disse systemene kan lure, manipulere og skade folk. De kan også brukes til å spre desinformasjon, opprettholde eksisterende skjevheter som forsterker diskriminering, eller brukes til svindel, sier Ursula Pachl, visegeneraldirektør i BEUC, i en uttalelse. «Vi oppfordrer sikkerhets-, data- og forbrukervernmyndighetene til å starte undersøkelser nå og ikke vente stille på at alle typer forbrukerskader har skjedd før de iverksetter tiltak. Disse lovene gjelder for alle produkter og tjenester, enten de er AI-drevne eller ikke, og myndighetene må håndheve dem.»

BEUC, som representerer forbrukerorganisasjoner i 13 land i EU, sendte ut oppfordringen til å sammenfalle med en rapport i dag fra et av medlemmene, Forbrukerrådet i Norge.

Den norske rapporten er entydig i sin posisjon: AI utgjør forbrukerskader (tittelen på rapporten sier alt: «Ghost in the Machine: Addressing the consumer harms of generative AI») og stiller mange problematiske spørsmål.

Mens noen teknologer har ringt alarmklokker rundt AI som et instrument for menneskelig utryddelse, har debatten i Europa vært mer direkte rundt virkningene av AI på områder som rettferdig tilgang til tjenester, desinformasjon og konkurranse.

Den fremhever for eksempel hvordan “visse AI-utviklere inkludert Big Tech-selskaper” har stengt systemer fra ekstern gransking, noe som gjør det vanskelig å se hvordan data samles inn eller algoritmer fungerer; det faktum at noen systemer produserer feil informasjon like glad som de gjør korrekte resultater, med brukere som ofte ikke er desto klokere på hva det kan være; AI som er bygget for å villede eller manipulere brukere; skjevhetsproblemet basert på informasjonen som mates inn i en bestemt AI-modell; og sikkerhet, spesifikt hvordan AI kan bli våpen for å lure folk eller bryte systemer.

Selv om utgivelsen av OpenAIs ChatGPT definitivt har plassert AI og potensialet for dens rekkevidde i den offentlige bevisstheten, er ikke EUs fokus på virkningen av AI nytt. Den begynte å diskutere spørsmål om “risiko” tilbake i 2020, selv om den første innsatsen ble lagt til grunn for å øke “tilliten” til teknologien.

I 2021 snakket det mer spesifikt om “høyrisiko” AI-applikasjoner, og rundt 300 organisasjoner slo seg sammen for å veie inn for å gå inn for å forby noen former for AI fullstendig.

Følelsene har blitt mer kritisk over tid, ettersom EU arbeider gjennom sine regionsomfattende lover. Den siste uken snakket EUs konkurransesjef, Margrethe Vestager, spesifikt om hvordan kunstig intelligens utgjorde en risiko for skjevhet når den ble brukt på kritiske områder som finansielle tjenester som boliglån og andre lånesøknader.

Kommentarene hennes kom like etter at EU godkjente sin offisielle AI-lov, som foreløpig deler AI-applikasjoner inn i kategorier som uakseptabel, høy og begrenset risiko, som dekker et bredt spekter av parametere for å bestemme hvilken kategori de faller inn under.

AI-loven, når den implementeres, vil være verdens første forsøk på å prøve å kodifisere en form for forståelse og rettshåndhevelse rundt hvordan AI brukes kommersielt og ikke-kommersielt.

Det neste trinnet i prosessen er for EU å engasjere seg med individuelle land i EU for å finne ut hvilken endelig form loven vil ha – spesifikt for å identifisere hva (og hvem) som passer inn i dens kategorier, og hva som ikke vil. Spørsmålet vil være hvor lett forskjellige land blir enige. EU ønsker å fullføre denne prosessen innen utgangen av dette året, heter det.

“Det er avgjørende at EU gjør denne loven så vanntett som mulig for å beskytte forbrukerne,” sa Pachl i sin uttalelse. “Alle AI-systemer, inkludert generativ AI, trenger offentlig gransking, og offentlige myndigheter må hevde kontrollen over dem på nytt. Lovgivere må kreve at resultatet fra ethvert generativt AI-system er trygt, rettferdig og transparent for forbrukerne.»

BEUC er kjent for å kime inn i kritiske øyeblikk og for å foreta innflytelsesrike samtaler som gjenspeiler retningen regulatorer til slutt tar. Det var en tidlig stemme, for eksempel mot Google i de langsiktige antitrust-undersøkelsene mot søke- og mobilgiganten, og kimet inn i årevis før det ble iverksatt tiltak mot selskapet. Dette eksemplet understreker imidlertid noe annet: Debatten om AI og dens innvirkning, og rollen regulering kan spille i det, vil sannsynligvis bli lang.

Read More