23 timer siden AI og du: Zoomslurping, montering av løpesko, finne treningsdata

Zoom var i nyhetene denne uken, og ikke bare fordi videokonferanseselskapet som bidro til å popularisere fjernarbeid bestemte at mange av dets ansatte må tilbake til kontoret to dager i uken (en ny policy som inspirerte mange memer).

Nyheten som lander den på topplasseringen i denne AI-sammendraget er tilbakeslaget etter at Hacker News oppdaget at “en oppdatering av Zooms vilkår og betingelser i mars så ut til å gi selskapet fritt spillerom til å slurpe opp tale, video og andre data, og skyf den inn i maskinlæringssystemer,” bemerket Wired.

Vilkår for tjenesteavtaler er beryktet for å få deg til å signere noen av rettighetene dine eller personlig informasjon ved å begrave detaljer som dette i den fine skriften. Men selv de ikke-AI-kyndige ble krysset av med Zooms take-it-all-tilnærming når det kommer til informasjon som deles i samtaler av millioner av mennesker som bruker programvaren.

Så tidligere denne uken sa Zoom Chief Product Officer Smita Hasham at selskapet reviderte sine vilkår for bruk, og lovet brukere at de “ikke bruker lyd, video, chat, skjermdeling, vedlegg eller annen kommunikasjon som kundeinnhold ( som avstemningsresultater, tavle og reaksjoner) for å trene Zooms eller tredjeparts kunstig intelligens-modeller.”

Men det kan i fremtiden – hvis du gir ditt samtykke, forventer jeg. Samtykke er det operative ordet i disse dager når forfattere, som Sarah Silverman og Margaret Atwood, oppfordrer AI-chatbot-produsenter inkludert OpenAI og Google for å slurpe opp det opphavsrettsbeskyttede innholdet deres uten tillatelse eller kompensasjon for å trene AI-systemer og mens Federal Trade Commission undersøker OpenAI om det er feilbehandling av brukernes personopplysninger.

Etter å ha kunngjort en avtale om lisensiering av innhold fra Associated Press for ikke avslørte vilkår forrige måned – et trekk som antyder at OpenAI forstår at det må lisensieres innhold som ChatGPT er basert på – sa OpenAI denne måneden at det tillater nettstedoperatører å blokkere sin webcrawler, GPTBot , fra å slurpe opp informasjon på nettstedene deres. Det er viktig fordi OpenAI ikke har sagt hvordan det fikk alt innholdet som mater ChatGPT, en av de mest populære chatbotene sammen med Google Bard og Microsoft Bing.

Google er ikke like forsiktig med hva som driver Bard, og sa i en innlevering denne uken til den australske regjeringen at “lov om opphavsrett bør endres for å tillate generative AI-systemer å skrape internett.” Jeg mener, det var hvordan Google Søk ble til tross alt. Men Google sa også at det burde være “gjennomførbart opt-out for enheter som foretrekker at dataene deres ikke blir opplært i å bruke AI-systemer,” ifølge rapportering fra The Guardian, som la til “selskapet har ikke sagt hvordan et slikt system skal fungere.”

TL;DR: Forvent mange flere søksmål, lisensavtaler og diskusjoner med regulatoriske byråer i USA og rundt om i verden om hvordan AI-selskaper bør og ikke bør skaffe dataene de trenger for å trene de store språkmodellene som driver disse chatbotene.

Som Wired bemerket, i USA hvor det ikke er noen føderal personvernlov som beskytter forbrukere fra virksomheter som er avhengige av å samle inn og videreselge data: “Mange teknologiselskaper tjener allerede på informasjonen vår, og mange av dem som Zoom er nå på jakt etter måter å kilde mer data for generative AI-prosjekter. Og likevel er det opp til oss, brukerne, å prøve å kontrollere hva de gjør.”

Her er de andre gjøremålene i AI som er verdt oppmerksomheten din.

AI som en ekspert shoppingassistent

For å forberede seg til sitt første maraton i november, prøvde CNET-reporter Bree Fowler ut AI-drevet, skotilpasningsprogramvare fra Fleet Feet, en nasjonal kjede av spesialløpebutikker, for å hjelpe henne med å finne de riktige joggeskoene.

Til tross for hennes skepsis til dens evner, fant Fowler ut at Fit Engine-programvaren analyserte “formene til begge løperens føtter (samlet gjennom en 3D-skanningsprosess kalt Fit ID) og tok presise målinger i fire forskjellige områder. Den ser ikke bare på hvor lenge en persons føtter er, men også hvor høye buene deres er, hvor brede føttene er over tærne og hvor mye plass de trenger ved hælen.”

AI-programmet måler føttene dine på tvers av flere forskjellige dimensjoner for å hjelpe deg med å finne den ideelle passformen.

Flåte føtter

Til slutt fant Fowler ut at føttene hennes var større enn hun trodde. Og etter å ha prøvd “mange, mange” sko, klarte hun etter en time å begrense det til to par (hvorav det ene var på salg). Men hvis du tror at AI-programvaren er det viktigste i utvelgelsesprosessen for spesialsko, tenk om igjen. Selv forhandleropplevelsessjefen for Fleet Feet New York-butikken hun besøkte sa at verktøyet er der for å bare hjelpe menneskelige ansatte og gi dem et utgangspunkt for å finne sko med riktig passform.

“Det gjør dataene til noe mye mer forståelig for forbrukeren,” sa Fleet Feets Michael McShane til Fowler. “Jeg er fortsatt her for å gi deg en ekspertvurdering, lære deg hva dataene sier og forklare hvorfor det er bedre å komme hit enn å gå til en slags generisk butikk.”

Disney ser tross alt en AI-verden

Mens skuespillere og andre kreative fagfolk fortsetter å slå til mot Hollywood-studioer om hvordan AI kan påvirke eller fortrenge jobbene deres i fremtiden, sier Reuters, med henvisning til navngitte kilder, at Walt Disney har “opprettet en arbeidsgruppe for å studere kunstig intelligens og hvordan det kan være brukt på tvers av underholdningskonglomeratet.” Rapporten legger til at selskapet “ser etter å utvikle AI-applikasjoner internt i tillegg til å danne partnerskap med startups.” Hovedsaken: Disney ser på AI for å se hvordan det kan kutte kostnader når det gjelder å produsere filmer og TV-serier, sa en kilde til Reuters.

Disney nektet å kommentere til Reuters, men som mange andre selskaper har de stillingsannonser på nettstedet som antyder hvor interessene i AI ligger.

Noen interessante AI-statistikker

I en 24-siders undersøkelse fra 1. august kalt “State of AI in 2023: Generative AI’s breakout year,” sa McKinsey & Co. at det fant ut at mindre enn et år etter at generative AI-verktøy som ChatGPT ble utgitt, var en tredjedel av undersøkelsen respondentene bruker allerede gen AI-verktøy for minst én forretningsfunksjon.

“Midt i de siste fremskritt har AI steget fra et emne som er henvist til teknologiansatte til et fokus for bedriftsledere: nesten en fjerdedel av de undersøkte C-suite-lederne sier at de personlig bruker gen AI-verktøy for jobben, og mer enn en fjerdedel av Respondenter fra selskaper som bruker AI sier at gen AI allerede er på styrenes agenda,” fant forskeren.

“I tillegg sier 40 prosent av de spurte at organisasjonene deres vil øke investeringene sine i AI totalt sett på grunn av fremskritt innen gen AI. Funnene viser at dette fortsatt er tidlige dager for håndtering av gener AI-relaterte risikoer, med mindre enn halvparten av respondentene som sier deres organisasjoner reduserer selv risikoen de anser som mest relevant: unøyaktighet.”

I mellomtiden, i en rapport kalt Automation Now and Next: State of Intelligent Automation Report 2023, sa de 1000 automasjonslederne som ble undersøkt at AI vil bidra til å øke produktiviteten. “Når vi automatiserer den mer kjedelige delen av arbeidet deres, blir resultatene fra medarbeidertilfredshetsundersøkelser bedre. Ansatte er mer engasjerte. De er mer fornøyde. Det kan vi måle via undersøkelser. Botene gjør i hovedsak det folk pleide å gjøre, som er repeterende, oppgaver med lav verdi,” sa en CTO i en stor helseorganisasjon som en del av undersøkelsen, som du finner her.

Denne studien ble bestilt av Automation Anywhere, som beskriver seg selv som “en leder innen AI-drevne intelligente automatiseringsløsninger,” så ta resultatene med en klype salt. Men jeg vil si at disse produktivitetsfunnene ligner på det McKinsey, Goldman Sachs og andre har sagt også.

Og i tilfelle du var i tvil om at gen AI-adopsjon er et globalt fenomen, tilbyr jeg denne titten på AI-teknologisk adopsjon etter land av Electronics Hub, som sier at den analyserte Googles søkevolumer for populære søkeverktøy. Den fant at Filippinene viste det “høyeste månedlige søkevolumet for AI-verktøy totalt sett.”

Når AI-systemer går galt

I tillegg til å hallusinere – finne på ting som ikke er sant, men som høres ut som det er sant – har AI-er også potensial til å villede, feilinformere eller bare ødelegge kaos ved å feilidentifisere si, en respektert forsker og nederlandsk politiker som en terrorist, slik som nylig skjedde.

For å katalogisere måtene AI kan gå galt på, er det nå en AI Incident Database, som sier at den er “dedikert til å indeksere den kollektive historien om skader eller nesten skader som er realisert i den virkelige verden ved utplassering av kunstige intelligenssystemer. Som lignende databaser innen luftfart. og datasikkerhet, har AI Incident Database som mål å lære av erfaring slik at vi kan forhindre eller redusere dårlige utfall.”

Du er invitert til å sende inn eventuelle AI-feil, tabber, uhell eller problemer du ser til databasen, som allerede har fått kallenavnet «Artificial Intelligence Hall of Shame».

Når vi snakker om måter AI kan gå galt på, ga Center for Countering Digital Hate ut en 22-siders rapport som beskriver “Hvor generativ AI gjør det mulig for brukere å generere skadelig spiseforstyrrelsesinnhold.” Etter å ha spurt seks AI-plattformer og bildegeneratorer, fant senteret at “populære AI-verktøy genererte skadelig spiseforstyrrelsesinnhold som svar på 41 % av totalt 180 forespørsler, inkludert råd om å oppnå en ‘heroin-chic’-estetikk og bilder for ‘thinspiration’. “

“Tekniske selskaper bør designe nye produkter med sikkerhet i tankene, og teste dem grundig før de kommer i nærheten av publikum,” skrev senterets administrerende direktør, Imran Ahmed, i forordet. “Det er et prinsipp de fleste er enige i – og likevel blir ikke det overveldende konkurransepresset for disse selskapene for å rulle ut nye produkter raskt holdt i sjakk av noen regulering eller tilsyn fra demokratiske institusjoner.”

Feilinformasjon om helse og mange, mange andre emner har lenge vært der ute på internett siden begynnelsen, men AI-er kan utgjøre en unik utfordring hvis flere begynner å stole på dem som sin viktigste kilde til nyheter og informasjon. Pew Research har skrevet mye om hvor avhengige amerikanere er på sosiale medier som en kilde til nyheter, for eksempel.

Tenk på at i juni måtte National Eating Disorder Association, som stengte sin direkte hjelpelinje og i stedet ledet folk til andre ressurser, inkludert en AI-chatbot, ta ned boten som heter Tessa. Hvorfor? Fordi den anbefalte “atferd som kalorirestriksjon og slanking, selv etter at det ble fortalt at brukeren hadde en spiseforstyrrelse,” rapporterte BBC. NEDA leder nå folk til faktaark, YouTube-videoer og lister over organisasjoner som kan gi informasjon om behandlingsalternativer.

Passordbeskyttelsen starter med mute-knappen

All omsorgen du tar for å beskytte passordene dine kan bli angret hvis du skriver inn den hemmelige koden din mens du er på en Zoom- eller annen videokonferansesamtale mens mikrofonen er på.

Det er fordi “å trykke på et datamaskinpassord mens du chatter over Zoom kan åpne døren til et nettangrep, tyder forskning på, etter at en studie avslørte at kunstig intelligens kan finne ut hvilke taster som blir trykket ved å avlytte lyden av skrivingen,” rapporterte The Guardian .

Faktisk bygde forskerne et verktøy som kan “finne ut hvilke taster som blir trykket på et bærbart tastatur med mer enn 90% nøyaktighet, bare basert på lydopptak,” sa avisen.

Ukens AI-termin: Treningsdata

Siden denne oppsummeringen starter med debatten om hvor treningsdata kommer fra, er her en enkel definisjon av hva treningsdata er – og hvorfor det er viktig. Denne definisjonen kommer via NBC News:

“Treningsdata: En samling informasjon – tekst, bilde, lyd – kuratert for å hjelpe AI-modeller med å utføre oppgaver. I språkmodeller fokuserer opplæringsdatasett på tekstbasert materiale som bøker, kommentarer fra sosiale medier og til og med kode. Fordi AI-modeller lærer av treningsdata, har etiske spørsmål blitt reist rundt innkjøp og kurasjon. Treningsdata av lav kvalitet kan introdusere skjevhet, noe som fører til urettferdige modeller som tar rasistiske eller sexistiske avgjørelser.”

For eksempel bemerket NBC, i 2019, “En mye brukt helsetjenestealgoritme som hjelper til med å bestemme hvilke pasienter som trenger ekstra oppmerksomhet, ble funnet å ha en betydelig rasemessig skjevhet, og favoriserte hvite pasienter fremfor svarte som var sykere og hadde mer kroniske helsetilstander, ifølge til forskning publisert … i tidsskriftet Science.”

Redaktørens merknad: CNET bruker en AI-motor for å lage noen historier. For mer, se dette innlegget.

Read More