FTC skal angivelig undersøke OpenAI på grunn av “omdømmeskade” forårsaket av ChatGPT
FTC er angivelig i minst den utforskende fasen av å undersøke OpenAI om selskapets flaggskip ChatGPT-konversasjons-AI kom med “falske, villedende, nedsettende eller skadelige” uttalelser om mennesker. Det virker usannsynlig at dette vil føre til en plutselig nedbryting, men det viser at FTC gjør mer enn å advare AI-industrien om potensielle brudd.
The Washington Post rapporterte først nyhetene, med henvisning til tilgang til et 20-siders brev til OpenAI som ber om informasjon om klager på nedsettende. FTC nektet å kommentere, og la merke til at undersøkelsene deres er ikke-offentlige.
I februar kunngjorde regulatoren et nytt kontor for teknologi for å ta på seg “slangeolje” i teknologisektoren, og kort tid etter advarte det selskaper som kom med påstander rundt AI om at de er underlagt de samme sannhetskravene som alle andre. “Hold AI-kravene dine i sjakk,” skrev de – ellers vil FTC.
Selv om brevet rapportert av posten neppe er første gang byrået har tatt på seg noen av AIs mange former, ser det ut til å kunngjøre at verdens nåværende ubestridte leder på feltet, OpenAI, må være klar til å rettferdiggjøre seg selv.
Denne typen etterforskning kommer ikke bare ut av løse luften – FTC ser seg ikke rundt og sier: “Det ser mistenkelig ut.” Vanligvis blir et søksmål eller formell klage gjort oppmerksom på dem, og praksisen som beskrives av den innebærer at regelverket blir ignorert. For eksempel kan en person saksøke et kosttilskuddsselskap fordi pillene gjorde dem syke, og FTC vil starte en undersøkelse på baksiden av det fordi det er bevis for at selskapet løy om bivirkningene.
I dette tilfellet er det stor sannsynlighet for at et søksmål som dette, der en australsk ordfører klaget til OpenAI om at ChatGPT sa at han hadde blitt anklaget for bestikkelser og blant annet dømt til fengsel, kan føre til en etterforskning. (Den saken pågår, og selvfølgelig er jurisdiksjonen feil, men det er nesten helt sikkert flere lignende.)
Å publisere slike ting kan utgjøre ærekrenkelse eller injurier eller rett og slett «skade omdømme», som FTCs nåværende brev til OpenAI angivelig kaller dem. Det er nesten helt sikkert ChatGPT det dreier seg om fordi det er det eneste virkelig offentlige produktet i OpenAIs portefølje som kan gjøre noe slikt – GPT-4 og de andre API-ene er låst litt for mye (og er for nye) til å bli vurdert.
Det er neppe en slam dunk: De tekniske aspektene alene stiller spørsmål ved om dette regnes som publisering eller tale eller til og med noe annet enn en privat kommunikasjon – alt dette må bevises.
Men det er heller ikke en vill ting å be et selskap om å forklare. En ting er å gjøre en feil, en annen å systematisk og uoppdagelig finne på detaljer om mennesker, i store skalaer, og ikke si noe om det. Hvis Microsoft Words stavekontroll av og til la til “dømt kriminell” foran folks navn, burde du tro at det ville bli bråk.
Selv om FTC har blitt gitt noen få høyprofilerte nederlag i det siste i form av at dens anti-fusjonsinnsats rettet mot Meta og Microsoft ble skutt ned, har den også spikret teknologiselskaper for personvernproblemer og til og med AI-tilstøtende brudd.