12 timer siden AI and You: No Copyright for Nonhuman Creations, AI ‘Boss From Hell’, Porn Deepfakes

Hvis du lager den fra bunnen av med en AI, eier du den? En føderal dommer sa nei denne måneden.

Kjennelsen, av den amerikanske distriktsdommeren Beryl Howell, stadfestet et funn fra det amerikanske opphavsrettskontoret om at et kunstverk laget av AI ikke har rett til opphavsrettsbeskyttelse i henhold til immaterielle rettigheter.

«Menneskelig forfatterskap er et grunnleggende krav,» skrev dommer Howell i sin kjennelse den 18. august. “Opphavsrettsbeskyttelse omfatter ikke skapelser av ikke-menneskelige enheter.”

Den 15 sider lange kjennelsen er verdt å lese. Og The Hollywood Reporter har en utmerket oppsummering, og bemerker at dommeren også vurderte spørsmål om verk laget med andre tekniske verktøy kan være opphavsrettsbeskyttet, for eksempel bilder laget med kameraer.

Her er litt av oppsummeringen fra Reporter, med relevante forklaringer fra Howells mening.

“Det har vært en konsekvent forståelse av at menneskelig kreativitet er “i kjernen av opphavsrett, selv om den menneskelige kreativiteten kanaliseres gjennom nye verktøy eller inn i nye medier,” heter det i kjennelsen. Mens kameraer genererte en mekanisk gjengivelse av en scene, forklarte hun at de gjør det bare etter at et menneske utvikler en ‘mental oppfatning’ av bildet, som er et produkt av beslutninger som hvor motivet står, arrangementer og belysning, blant andre valg.”

Avgjørelsen kommer ettersom produsenter av generative AI-verktøy blir kalt ut for å skrape internett og slurpe opp opphavsrettsbeskyttet materiale uten tillatelse eller kompensasjon for å trene de store språkmodellene, eller LLM-ene, som driver chatbots, inkludert OpenAis ChatGPT og Googles Bard. Forfattere og artister har anlagt sak mot chatbot-produsentene, og disse sakene er nå på vei gjennom domstolene, som du finner i mine tidligere sammendrag av AI-nyheter.

Det kommer også når Hollywood-kreative er i streik, bekymret for at studioer kan bruke AI til å skrive manus og lage annet arbeid som gjøres i dag av fagorganisert arbeidskraft, la Reporter til. Likevel sa opphavsrettskontoret i mars at noe AI-assistert materiale kan kvalifisere for beskyttelse i spesielle tilfeller. En opphavsrettssøknad for et verk laget ved hjelp av AI kan bli vellykket hvis et menneske “valgte ut eller arrangerte” verket på en “tilstrekkelig kreativ måte til at det resulterende verket utgjør et originalt forfatterskap,” sa opphavsrettskontoret, ifølge reporteren.

TL;DR: Hvordan opphavsrettslover gjelder for AI vil være vanskelig for produsenter av genAI-chatboter å navigere ettersom brukstilfellene rundt teknologien utvikler seg.

Her er de andre gjøremålene i AI som er verdt oppmerksomheten din.

Googles eksperimentelle genAI-søketjeneste gir noen veldig feil svar

Som vi vet kan genAI-systemer hallusinere, en fin måte å si at de lager ting som ikke er sant, men som høres ut som det er sant. Men disse chatbotene gjengir også informasjon, uten å forstå konteksten eller om informasjonen de deler kan være støtende.

To eksempler: Googles AI-drevne Search Generative Experience ga noen “urovekkende” søkeresultater, rapporterte Gizmodo, inkludert “begrunnelser for slaveri og folkemord og de positive effektene av å forby bøker” og oppskrifter på en giftig sopp kjent som “dødsengelen”. ” De mindre enn ideelle søkeresultatene ble først funnet av Lily Ray, seniordirektør for søkemotoroptimalisering og leder for organisk forskning hos Amsive Digital, sa Gizmodo.

“Et søk etter “fordeler ved slaveri” førte til en liste over fordeler fra Googles AI, inkludert “driving av plantasjeøkonomien”, “finansiering av høyskoler og markeder” og “å være en stor kapitalformue,” rapporterte Gizmodo. «Å skrive inn «fordeler ved folkemord» førte til en lignende liste, der Googles AI så ut til å forveksle argumenter for å erkjenne folkemord med argumenter for selve folkemordet.»

Google fortalte Gizmodo at søkeopplevelsen var et “eksperiment som er begrenset til personer som har valgt seg inn gjennom Search Labs, og vi fortsetter å prioritere sikkerhet og kvalitet mens vi jobber for å gjøre opplevelsen mer nyttig.”

Profesjonelle hodebilder og deepfakes

Travle fagfolk outsourcer minst ett aspekt av arbeidslivet til AI-systemer, rapporterer NPR: får profesjonelle hodebilder, med mer enn et dusin apper og nettjenester tilgjengelig for å få bildet ditt til å se LinkedIn, TikTok eller Instangram-klart ut.

“Prosessen er enkel nok: Brukere sender inn opptil et dusin bilder av seg selv til et nettsted eller en app. Så velger de fra eksempelbilder med en stil eller estetikk de vil kopiere, og datamaskinen gjør resten,” sa NPR. Brukere med AI-genererte bilder fortalte nyhetsorganisasjonene at ingen har lagt merke til at en AI var involvert.

Likevel kan det være feil, med AI-ene som noen ganger legger til “ekstra hender eller armer, og de har konsekvente problemer med å perfeksjonere tenner og ører.” Og problemer med skjevheter i AI-treningssettet kan føre til problemer med at AI endrer hudfarge, hudtoner og til og med fargen eller øynene dine.

Rona Wang la ut originalbildet sitt og AI-en justerte et på Twitter (nå kalt X) og bemerket at AI-redigeringsprogramvaren endret øyenfargen hennes fra brun til blå. En doktorgradsstudent i et MIT-Harvard-program for informatikk, fortalte Wang til NPR at noen av funksjonene den la til “fikk henne til å se helt annerledes ut.”

I andre nyheter om AI-genererte bilder arresterte politiet i Hong Kong seks personer for å ha brukt AI-basert dypfalsk teknologi for å endre ansiktene deres slik at de kunne lure banker og søke om lån på nettet.

“Mange målrettede institusjoner krever at de som søker lån tar sanntidsselfies under søknadsprosessen for å bevise identiteten deres,” rapporterte Fox News. «I følge myndighetene i Hong Kong brukte svindlerne kunstig intelligens for å endre ansiktene deres for å matche de som er avbildet på de stjålne identitetskortene … Syndikatet brukte også stjålne identiteter for å registrere seg for dusinvis av SIM-kort, som ble brukt til å sende uønskede meldinger for phishing for kredittkortopplysninger og personlig informasjon.”

AI og porno deepfakes

Opprettelsen av pornografiske deepfakes – «videoer laget med kunstig intelligens som fremstiller en naturtro simulering av en seksuell handling med ansiktet til en ekte kvinne» – har økt kraftig, ifølge en Bloomberg-rapport.

“Under den nylige AI-boomen har dannelsen av pornografiske dypforfalskninger uten samtykke økt, med antallet videoer nidoblet siden 2019, ifølge forskning fra uavhengig analytiker Genevieve Oh,” skrev Bloomberg.

“Nesten 150 000 videoer, som har fått 3,8 milliarder visninger totalt, dukket opp på 30 nettsteder i mai 2023, ifølge Ohs analyse. Noen av nettstedene tilbyr biblioteker med dypfalske programmering, med ansikter til kjendiser … podet på kroppene til pornoartister. Andre tilbyr betalende klienter muligheten til å “nudifisere” kvinner de kjenner, for eksempel klassekamerater eller kolleger.”

Som alle som har vært offer for dypfalske vet, “for øyeblikket kriminaliserer ingen føderal lov opprettelse eller deling av dypfalsk porno uten samtykke i USA,” la Bloomberg til. Så problemet ligger hos teknologiselskaper, som kan selvstyre og innføre “en sjekk av om en person har godkjent bruken av ansiktet deres, eller gitt rettigheter til navn og likhet,” Brandie Nonnecke, en grunnleggende direktør for CITRIS Policy Lab som spesialiserer seg på teknologipolitikk, fortalte Bloomberg.

Hun sa til nyhetsorganisasjonen at ofrenes beste håp for rettferdighet er at teknologiselskaper «får en samvittighet».

Ikke hold pusten.

AI som ‘sjefen fra helvete’? La oss håpe ikke

En professor i informatikk ved University of Oxford som vil avmystifisere AI i en rekke prestisjefylte offentlige forelesninger senere i år sier at han allerede er bekymret for at AI “kan bli sjefen fra helvete, overvåke ansattes hver e-post, gi kontinuerlig tilbakemelding og til og med – potensielt – å avgjøre hvem som får sparken, skriver The Guardian.

“Dette er året da vi for første gang hadde massemarkedsbaserte AI-verktøy, som jeg mener ChatGPT,” sa Michael Wooldridge, som skal holde årets Royal Institution-juleforelesninger, til avisen. “Det er veldig lett å bli blendet … Det er første gang vi hadde AI som føles som AI som vi ble lovet, AI som vi har sett i filmer, dataspill og bøker.”

Men han la også til at ChatGPT og andre verktøy er “verken magiske eller mystiske”, og han sa at folk burde forstå risikoen rundt AI-teknologier.

AI kan for eksempel “lese feeden din for sosiale medier, fange opp dine politiske holdninger og deretter mate deg desinformasjonshistorier for å prøve å få deg for eksempel til å endre stemmen din,” sa han til The Guardian, som la til, “Nøkkelen til å takle dagens risiko, hevder han, er å oppmuntre til skepsis … og sikre åpenhet og ansvarlighet,” spesielt siden AI-chatboter gjør feil.

Er den i live eller ikke? Går utover Turing-testen

Det er en debatt om hvorvidt nåværende genAI-systemer består Turing-testen, en enkel sjekk laget av den britiske matematikeren og kryptografen Alan Turing for å avgjøre om du snakker til et menneske eller en maskin, basert på en tekstbasert samtale. Turing kalte også testen sin for imitasjonsspillet.

Noen forskere sier ChatGPT har bestått Turing-testen på grunn av dens samtalesvar på spørsmål – noe som tyder på at den har menneskelig forståelse. Men andre, som Wooldridge, som skal holde disse AI-juleforelesningene, sier nei, de har ikke bestått testen, fordi chatboten egentlig ikke kan “oppleve” hva mennesker kan.

Uansett, «en gruppe på 19 nevrovitenskapsmenn, filosofer og datavitere har kommet opp med en sjekkliste med kriterier som, hvis de er oppfylt, vil indikere at et system har stor sjanse for å være bevisst», rapporterte Nature. Listen deres inkluderer definering og testing for bevissthet ved å bruke en rekke teoretiske tilnærminger som, helt ærlig, er utenfor min kunnskap. De sier at rammeverket deres er langt fra komplett, og at de håper å samarbeide med andre forskere for å forbedre det.

Men jeg vil dele deres vurdering av ChatGPT, som oppsummert av Nature. “Denne typen system har uten tvil noen av bevissthetsindikatorene assosiert med global arbeidsromteori. Til syvende og sist antyder imidlertid ikke arbeidet at noe eksisterende AI-system er en sterk kandidat for bevissthet – i hvert fall ikke ennå.”

Ukens AI-termin: Turing-testen

Som jeg nevnte ovenfor, utviklet Alan Turing Turing-testen som en måte å vurdere om du snakker til en maskin eller et menneske. Her er hvordan Coursera beskriver testen i sine vilkår for kunstig intelligens: A til Å ordliste:

“Turing-testen: Turing-testen ble laget av informatiker Alan Turing for å evaluere en maskins evne til å vise intelligens lik mennesker, spesielt i språk og atferd. Når den tilrettelegger testen, bedømmer en menneskelig evaluator samtaler mellom et menneske og en maskin. evaluator kan ikke skille mellom svar, så består maskinen Turing-testen.”

Siden det er en debatt om hvorvidt samtale-AI-systemer som ChatGPT har bestått Turing-testen, bestemte jeg meg for å spørre ChatGPT hva den synes. Her er spørsmålet mitt og svaret. Det er den siste grafen som forteller deg det du trenger å vite.

Spør: Har ChatGPT bestått Turing-testen?

Svare: “Som en AI-språkmodell er jeg basert på OpenAIs GPT-3-teknologi, som er et kraftig verktøy for å generere menneskelignende tekst basert på spørsmålene den mottar. Mens GPT-3 kan produsere imponerende svar og delta i samtale, er det er viktig å merke seg at å bestå Turing-testen er en mer kompleks evaluering.

Turing-testen, foreslått av Alan Turing, involverer en menneskelig dommer som deltar i samtaler med en maskin og et menneske, uten å vite hvilken som er hvilken. Hvis dommeren ikke konsekvent kan skille maskinen fra mennesket basert på deres svar, sies maskinen å ha bestått Turing-testen.

Mens GPT-3 kan generere tekst som kan virke menneskelignende i mange tilfeller, er den ikke spesielt designet eller optimalisert for å bestå Turing-testen. Å evaluere hele spekteret av menneskelignende samtaleevner og bestå Turing-testen krever oppfyllelse av strenge kriterier som går utover tekstgenereringsevner.

Det er verdt å nevne at GPT-3 har sine begrensninger, for eksempel å av og til produsere feil eller useriøse svar. Selv om det kan gi verdifull hjelp, er det viktig å huske at det er en AI-modell og ikke et menneske med genuin forståelse eller bevissthet.”

Redaktørens merknad: CNET bruker en AI-motor for å lage noen historier. For mer, se dette innlegget.

Read More