Uken i AI: Generativ AI spammer opp nettet
Å holde tritt med en bransje som beveger seg så raskt som AI er en stor oppgave. Så inntil en AI kan gjøre det for deg, her er en praktisk oppsummering av nyere historier i verden av maskinlæring, sammen med bemerkelsesverdig forskning og eksperimenter vi ikke dekket på egen hånd.
Denne uken dukket SpeedyBrand, et selskap som bruker generativ AI for å lage SEO-optimalisert innhold, opp fra stealth med støtte fra Y Combinator. Det har ikke tiltrukket seg mye finansiering ennå ($2,5 millioner), og kundebasen er relativt liten (ca. 50 merker). Men det fikk meg til å tenke på hvor generativ kunstig intelligens begynner å endre sammensetningen av nettet.
Som James Vincent fra The Verge skrev i et nylig stykke, gjør generative AI-modeller det billigere og enklere å generere innhold av lavere kvalitet. NewsGuard, et selskap som tilbyr verktøy for å undersøke nyhetskilder, har avslørt hundrevis av annonsestøttede nettsteder med generisk-klingende navn som inneholder feilinformasjon laget med generativ AI.
Det skaper problemer for annonsører. Mange av nettstedene som ble belyst av NewsGuard ser ut til å være utelukkende bygd for å misbruke programmatisk annonsering, eller de automatiserte systemene for å sette annonser på sider. I sin rapport fant NewsGuard nærmere 400 forekomster av annonser fra 141 store merker som dukket opp på 55 av søppelnyhetssidene.
Det er ikke bare annonsørene som bør bekymre seg. Som Gizmodos Kyle Barr påpeker, kan det bare ta en AI-generert artikkel for å drive fjell av engasjement. Og selv om hver AI-generert artikkel bare genererer noen få dollar, er det mindre enn kostnadene ved å generere teksten i utgangspunktet – og potensielle reklamepenger som ikke blir sendt til legitime nettsteder.
Så hva er løsningen? Er det en? Det er et par spørsmål som i økende grad holder meg våken om natten. Barr antyder at det påhviler søkemotorer og annonseplattformer å utøve et strammere grep og straffe de dårlige skuespillerne som omfavner generativ AI. Men gitt hvor raskt feltet beveger seg – og den uendelig skalerbare naturen til generativ AI – er jeg ikke overbevist om at de kan følge med.
Naturligvis er ikke søppelpost et nytt fenomen, og det har vært bølger før. Nettet har tilpasset seg. Det som er annerledes denne gangen er at etableringsbarrieren er dramatisk lav – både når det gjelder kostnadene og tiden som må investeres.
Vincent slår an en optimistisk tone, og antyder at hvis nettet er til slutt overkjørt med AI-søppel, kan det stimulere utviklingen av bedre finansierte plattformer. Jeg er ikke sikker. Det som imidlertid ikke er tvil om, er at vi er ved et vendepunkt, og at beslutningene som tas nå rundt generativ AI og dens utganger vil påvirke funksjonen til nettet i en stund fremover.
Her er andre AI-historier fra de siste dagene:
OpenAI lanserer offisielt GPT-4: OpenAI kunngjorde denne uken den generelle tilgjengeligheten av GPT-4, dens nyeste tekstgenererende modell, gjennom sin betalte API. GPT-4 kan generere tekst (inkludert kode) og godta bilde- og tekstinndata – en forbedring i forhold til GPT-3.5, forgjengeren, som bare aksepterte tekst – og presterer på “menneskelig nivå” på ulike profesjonelle og akademiske benchmarks. Men det er ikke perfekt, som vi bemerket i vår tidligere dekning. (I mellomtiden er ChatGPT-adopsjon rapportert å være nede, men vi får se.)
Får ‘superintelligent’ AI under kontroll: I andre OpenAI-nyheter danner selskapet et nytt team ledet av Ilya Sutskever, dets sjefforsker og en av OpenAIs medgründere, for å utvikle måter å styre og kontrollere «superintelligente» AI-systemer.
Anti-bias lov for NYC: Etter måneder med forsinkelser begynte New York City denne uken å håndheve en lov som krever at arbeidsgivere bruker algoritmer for å rekruttere, ansette eller promotere ansatte til å sende inn disse algoritmene for en uavhengig revisjon – og offentliggjøre resultatene.
Valve lyser stilltiende opp AI-genererte spill: Valve ga en sjelden uttalelse etter påstander om å avvise spill med AI-genererte eiendeler fra Steam-spillbutikken. Den notorisk lukkede utvikleren sa at policyen deres utviklet seg og ikke et standpunkt mot AI.
Humane avduker Ai Pin: Humane, oppstarten lansert av ex-Apple design- og ingeniørduoen Imran Chaudhri og Bethany Bongiorno, avslørte denne uken detaljer om sitt første produkt: The Ai Pin. Som det viser seg, er Humanes produkt en brukbar gadget med en projisert skjerm og AI-drevne funksjoner – som en futuristisk smarttelefon, men i en helt annen formfaktor.
Advarsler om EUs AI-regulering: Store teknologigründere, administrerende direktører, VC-er og industrigiganter over hele Europa signerte et åpent brev til EU-kommisjonen denne uken, der de advarer om at Europa kan gå glipp av den generative AI-revolusjonen hvis EU vedtar lover som kveler innovasjon.
Deepfake-svindel gjør rundene: Sjekk ut dette klippet av den britiske forbrukerfinansieringsmesteren Martin Lewis som tilsynelatende er en investeringsmulighet støttet av Elon Musk. Virker normalt, ikke sant? Ikke akkurat. Det er en AI-generert deepfake – og potensielt et glimt av den AI-genererte elendigheten som raskt akselererer på skjermene våre.
AI-drevne sexleketøy: Lovense – kanskje mest kjent for sine fjernstyrbare sexleketøy – kunngjorde denne uken ChatGPT Pleasure Companion. «Advanced Lovense ChatGPT Pleasure Companion», som ble lansert i betaversjon i selskapets fjernkontrollapp, inviterer deg til å hengi deg til saftige og erotiske historier som følgesvennen lager basert på ditt valgte emne.
Annen maskinlæring
Forskningsoppsummeringen vår starter med to svært forskjellige prosjekter fra ETH Zürich. Først er aiEndoscopic, en smart intubasjonsspinoff. Intubasjon er nødvendig for en pasients overlevelse i mange tilfeller, men det er en vanskelig manuell prosedyre som vanligvis utføres av spesialister. IntuBot bruker datasyn for å gjenkjenne og svare på en levende feed fra munnen og halsen, og veileder og korrigerer posisjonen til endoskopet. Dette kan tillate folk å trygt intubere ved behov i stedet for å vente på spesialisten, og potensielt redde liv.
Her er de som forklarer det litt mer detaljert:
I et helt annet domene bidro forskere fra ETH Zürich også brukt til en Pixar-film ved å være banebrytende for teknologien som trengs for å animere røyk og ild uten å bli offer for fraktalkompleksiteten til væskedynamikk. Tilnærmingen deres ble lagt merke til og bygget på av Disney og Pixar for filmen «Elemental». Interessant nok er det ikke så mye en simuleringsløsning som en stiloverføring – en smart og tilsynelatende ganske verdifull snarvei. (Bildet øverst er fra dette.)
AI i naturen er alltid interessant, men natur-AI som brukes på arkeologi er enda mer. Forskning ledet av Yamagata University hadde som mål å identifisere nye Nasca-linjer – de enorme “geoglyfene” i Peru. Du tror kanskje at de er synlige fra bane, men erosjon og tredekke fra årtusener siden disse mystiske formasjonene ble opprettet betyr at det er et ukjent tall som skjuler seg rett utenfor syne. Etter å ha blitt trent på luftbilder av kjente og skjulte geoglyfer, ble en dyp læringsmodell satt fri på andre visninger, og utrolig nok oppdaget den minst fire nye, som du kan se nedenfor. Ganske spennende!
Fire Nasca-geoglyfer nylig oppdaget av en AI-agent. Bildekreditt: Yamagata universitet
I en mer umiddelbart relevant forstand finner AI-tilstøtende teknologi alltid nytt arbeid med å oppdage og forutsi naturkatastrofer. Stanford-ingeniører setter sammen data for å trene fremtidige skogbrannprediksjonsmodeller ved å utføre simuleringer av oppvarmet luft over et skogtak i en 30 fots vanntank. Hvis vi skal modellere fysikken til flammer og glør som reiser utenfor grensene til en skogbrann, må vi forstå dem bedre, og dette teamet gjør det de kan for å tilnærme det.
Ved UCLA ser de på hvordan man kan forutsi skred, som er mer vanlig ettersom branner og andre miljøfaktorer endres. Men mens AI allerede har blitt brukt til å forutsi dem med en viss suksess, “viser den ikke arbeidet sitt”, noe som betyr at en prediksjon ikke forklarer om det er på grunn av erosjon, eller en vannstandsforskyvning eller tektonisk aktivitet. En ny “superposable neural network”-tilnærming har lagene i nettverket som bruker forskjellige data, men kjører parallelt i stedet for alle sammen, noe som lar utgangen være litt mer spesifikk i hvilke variabler som førte til økt risiko. Det er også mye mer effektivt.
Google ser på en interessant utfordring: Hvordan får du et maskinlæringssystem til å lære av farlig kunnskap, men ikke spre det? For eksempel, hvis treningssettet inneholder oppskriften på napalm, vil du ikke at den skal gjenta den – men for å vite at den ikke skal gjentas, må den vite hva den ikke gjentar. Et paradoks! Så teknologigiganten leter etter en metode for “maskinavlæring” som lar denne typen balansegang skje trygt og pålitelig.
Hvis du leter etter en dypere titt på hvorfor folk ser ut til å stole på AI-modeller uten god grunn, trenger du ikke lete lenger enn til denne Science-redaksjonen av Celeste Kidd (UC Berkeley) og Abeba Birhane (Mozilla). Den kommer inn på den psykologiske grunnen til tillit og autoritet og viser hvordan nåværende AI-agenter i utgangspunktet bruker disse som springbrett for å øke sin egen verdi. Det er en veldig interessant artikkel hvis du vil høres smart ut denne helgen.
Selv om vi ofte hører om den beryktede Mechanical Turk falske sjakk-spillemaskinen, inspirerte den karaden folk til å lage det den utga seg for å være. IEEE Spectrum har en fascinerende historie om den spanske fysikeren og ingeniøren Torres Quevedo, som skapte en faktisk mekanisk sjakkspiller. Dens evner var begrenset, men det er slik du vet at det var ekte. Noen foreslår til og med at sjakkmaskinen hans var det første «dataspillet». Noe å tenke på.