Hvorfor smart AI-regulering er avgjørende for innovasjon og amerikansk lederskap

Gary Shapiro Bidragsyter Del på Twitter Gary Shapiro er president og administrerende direktør i Consumer Technology Association og en New York Times bestselgende forfatter av boken Ninja Future: Secrets to Success in the New World of Innovation. Flere innlegg av denne bidragsyteren

Som tenåring fordypet jeg meg i science fiction. Selv om visjonene til mange filmer og romaner ikke har blitt til virkelighet, er jeg fortsatt overrasket over den legendariske forfatteren Isaac Asimovs evne til å forestille seg en fremtid med kunstig intelligens og robotikk. Nå, midt i all hypen rundt generativ AI og andre AI-verktøy, er det på tide for oss å følge Asimovs ledelse og skrive et nytt sett med regler.

Selvfølgelig vil AI-regler for det 21. århundre ikke være fullt så enkle som Asimovs tre regler for robotikk (popularisert i “I, Robot”). Men midt i angsten rundt fremveksten av AI-verktøy og et misforstått press for et moratorium for avansert AI-forskning, kan og bør industrien presse på for regler for ansvarlig AI-utvikling. Det siste århundrets fremskritt innen teknologi har absolutt gitt oss mye erfaring i å evaluere både fordelene med teknologisk fremgang og de potensielle fallgruvene.

Teknologien i seg selv er nøytral. Det er hvordan vi bruker det – og rekkverkene vi setter opp rundt det – som dikterer virkningen. Som mennesker kunne vi bruke ildens kraft til å holde oss varme og forlenge matlagringstiden. Men brann kan fortsatt være ødeleggende.

Tenk på hvordan de nylige kanadiske skogbrannene truet liv og eiendom i Canada og skadet amerikansk luftkvalitet. Atomkraft i form av atombomber drepte tusenvis i Japan under andre verdenskrig, men atomenergi lyser opp store deler av Frankrike og driver amerikanske hangarskip.

Vi er i et sentralt øyeblikk for fremtiden til en fantastisk, kompleks og konsekvensbasert teknologi. Vi har ikke råd til å la andre land ta ledelsen.

Når det gjelder AI, kan nye verktøy og plattformer løse store globale problemer og skape verdifull kunnskap. På et nylig møte med informasjonssjefer i Detroit-området delte deltakerne hvordan generativ kunstig intelligens allerede fremskynder time-to-market og gjør selskapene deres mer konkurransedyktige.

Generativ AI vil hjelpe oss å “lytte” til forskjellige dyrearter. AI vil forbedre helsen vår ved å støtte oppdagelse av legemidler og sykdomsdiagnose. Lignende verktøy gir alt fra personlig omsorg for eldre til bedre sikkerhet for hjemmene våre. Mer, AI vil forbedre produktiviteten vår, med en ny studie av McKinsey som viser generativ AI kan øke den globale økonomien med 4,4 billioner dollar årlig.

Med all denne muligheten, kan en slik fantastisk teknologi også være dårlig? Noen av bekymringene rundt AI-plattformer er legitime. Vi bør være bekymret for risikoen for dype forfalskninger, politisk manipulasjon og svindel rettet mot sårbare befolkninger, men vi kan også bruke AI til å gjenkjenne, avskjære og blokkere skadelige cyberinntrengninger. Både barrierer og løsninger kan være vanskelige og komplekse, og vi må jobbe med dem.

Noen kan også være enkle; vi ser allerede skoler som eksperimenterer med muntlige eksamener for å teste en elevs kunnskap. Å ta disse problemene direkte, i stedet for å stikke hodet i sanden med en pause på forskning som ville være umulig å håndheve og moden for utnyttelse av dårlige aktører, vil posisjonere USA som en leder på verdensscenen.

Mens den amerikanske tilnærmingen til kunstig intelligens har vært blandet, ser andre land ut til å være fastlåst i en hyperregulativ storm. EU er i ferd med å vedta en omfattende AI-lov som vil kreve at selskaper ber om tillatelse til å innovere. I praksis vil det bety at bare regjeringen eller store selskaper med økonomi og kapasitet til å ha råd til sertifiseringslabyrinten som dekker personvern, IP og en rekke krav til sosial beskyttelse, kan utvikle nye AI-verktøy.

En fersk studie fra Stanford University fant også at EUs AI Bill ville hindre alle eksisterende store språkmodeller, inkludert OpenAIs GPT-4 og Googles Bard. Kanadiske lovgivere går videre med en altfor bred AI-lov som på samme måte kan kvele innovasjon. Mest bekymringsfullt, Kina forfølger raskt sivil og militær AI-dominans gjennom massiv statlig støtte. Dessuten har den et annet syn på menneskerettigheter og personvern som kan hjelpe dens AI-innsats, men som er i motsetning til våre verdier. USA må handle for å beskytte innbyggerne og fremme AI-innovasjon, ellers blir vi etterlatt.

Hvordan ville det se ut? For å starte trenger USA en forebyggende føderal personvernlov. Dagens lappeteppe av stat-for-stat-regler betyr at data blir behandlet forskjellig hver gang de “krysser” en usynlig grense – noe som forårsaker forvirring og overholdelseshinder for små bedrifter. Vi trenger en nasjonal personvernlov med klare retningslinjer og standarder for hvordan selskaper samler inn, bruker og deler data. Det vil også bidra til å skape åpenhet for forbrukere og sikre at selskaper kan fremme tillit etter hvert som den digitale økonomien vokser.

Vi trenger også et sett med prinsipper rundt ansvarlig bruk av AI. Selv om jeg foretrekker mindre regulering, krever håndtering av nye teknologier som AI klare regler som beskriver hvordan denne teknologien kan utvikles og distribueres. Med nye innovasjoner innen AI avduket nesten daglig, bør lovgivere fokusere på rekkverk og resultater, i stedet for å forsøke å tøyle spesifikke teknologier.

Regler bør også vurdere risikonivået, med fokus på AI-systemer som kan skade amerikanernes grunnleggende rettigheter eller tilgang til kritiske tjenester. Når vår regjering bestemmer hvordan “god politikk” ser ut, vil industrien ha en viktig rolle å spille. Consumer Technology Association jobber tett med industri og beslutningstakere for å utvikle enhetlige prinsipper for bruk av kunstig intelligens.

Vi er i et sentralt øyeblikk for fremtiden til en fantastisk, kompleks og konsekvensbasert teknologi. Vi har ikke råd til å la andre land ta ledelsen.

Read More