Få en anelse, sier panel om livlig AI-teknologi: Det blir “distribuert som overvåking”
Tidligere i dag på en Bloomberg-konferanse i San Francisco dukket noen av de største navnene innen AI opp, inkludert, kort, Sam Altman fra OpenAI, som nettopp avsluttet sin to måneder lange verdensturné, og Stability AI-grunnlegger Emad Mostaque. Likevel skjedde en av de mest overbevisende samtalene senere på ettermiddagen, i en paneldiskusjon om AI-etikk.
Med Meredith Whittaker (bildet over), presidenten for den sikre meldingsappen Signal; Credo AI medgründer og administrerende direktør Navrina Singh; og Alex Hanna, direktør for forskning ved Distributed AI Research Institute, hadde de tre et samlet budskap til publikum, som var: Ikke bli så distrahert av løftet og truslene knyttet til fremtiden til AI. Det er ikke magi, det er ikke fullt automatisert og – per Whittaker – det er allerede påtrengende utover alt som de fleste amerikanere tilsynelatende forstår.
Hanna pekte for eksempel på de mange menneskene rundt om i verden som hjelper til med å trene dagens store språkmodeller, og antydet at disse personene blir kortvarige i noe av den pusteløse dekningen om generativ AI, delvis fordi arbeidet er uglamorøst og delvis fordi det passer ikke med den nåværende fortellingen om AI.
Hanna sa: «Vi vet fra rapportering . . .at det er en hær av arbeidere som gjør kommentarer bak kulissene for til og med å få dette til å fungere i noen grad — arbeidere som jobber med Amazon Mechanical Turk, folk som jobber med [the training data company] Sama – i Venezuela, Kenya, USA, faktisk over hele verden. . .De gjør faktisk merkingen, mens Sam [Altman] og Emad [Mostaque] og alle disse andre menneskene som kommer til å si disse tingene er magiske – nei. Det er mennesker. . . .Disse tingene må fremstå som autonome og den har denne fineren, men det er så mye menneskelig arbeid under den.»
Kommentarene som ble gitt separat av Whittaker – som tidligere jobbet hos Google, var med på å grunnlegge NYUs AI Now Institute og var rådgiver for Federal Trade Commission – var enda mer spissede (og også virkningsfulle basert på publikums entusiastiske reaksjon på dem). Budskapet hennes var at, uansett hvor fortryllet verden nå er av chatbots som ChatGPT og Bard, er teknologien som ligger til grunn for dem farlig, spesielt ettersom makten blir mer konsentrert av de som er på toppen av den avanserte AI-pyramiden.
Whittaker sa: “Jeg vil si at kanskje noen av menneskene i denne målgruppen er brukere av AI, men majoriteten av befolkningen er Emne av AI. . .Dette er ikke et spørsmål om individuelle valg. De fleste måtene AI interpolerer livet vårt på, gjør avgjørelser som former vår tilgang til ressurser til muligheter, gjøres bak kulissene på måter vi sannsynligvis ikke engang vet.”
Whittaker ga et eksempel på en som går inn i en bank og ber om et lån. Den personen kan bli nektet og har “ingen anelse om at det er et system i [the] tilbake sannsynligvis drevet av noen Microsoft API som bestemte, basert på skrapet sosiale medier, at jeg ikke var kredittverdig. Jeg kommer aldri til å vite det [because] det er ingen mekanisme for meg å vite dette.» Det finnes måter å endre dette på, fortsatte hun, men å overvinne det nåværende makthierarkiet for å gjøre det er nesten umulig, foreslo hun. «Jeg har sittet ved bordet i omtrent 15 år, 20 år. Jeg har vært på bordet. Å sitte ved bordet uten makt er ingenting.»
Sikkert kan mange maktesløse mennesker være enige med Whittaker, inkludert nåværende og tidligere OpenAI- og Google-ansatte som angivelig har vært skeptiske til tider med selskapenes tilnærming til å lansere AI-produkter.
Bloomberg-moderator Sarah Frier spurte faktisk panelet hvordan bekymrede ansatte kan si fra uten frykt for å miste jobben, som Singh – hvis oppstart hjelper selskaper med AI-styring – svarte: «Jeg tror mye av det avhenger av ledelsen og selskapet. verdier, for å være ærlig. . . . Vi har sett instans etter instans det siste året hvor ansvarlige AI-team ble sluppet.»
I mellomtiden er det mye mer som vanlige mennesker ikke forstår om hva som skjer, foreslo Whittaker, og kalte AI “en overvåkingsteknologi.” Overfor mengden utdypet hun og la merke til at AI «krever overvåking i form av disse massive datasettene som forankrer og utvider behovet for mer og mer data, og mer og mer intim innsamling. Løsningen på alt er mer data, mer kunnskap samlet i hendene på disse selskapene. Men disse systemene er også utplassert som overvåkingsenheter. Og jeg tror det er veldig viktig å erkjenne at det ikke spiller noen rolle om en utgang fra et AI-system produseres gjennom noen sannsynlige statistiske anslag, eller om det er data fra et mobiltårn som triangulerer posisjonen min. Disse dataene blir data om meg. Det trenger ikke være riktig. Det trenger ikke å reflektere hvem jeg er eller hvor jeg er. Men den har makt over livet mitt som er betydelig, og den makten blir lagt i hendene på disse selskapene.»
Whittaker la til, “Venn-diagrammet over AI-bekymringer og personvernhensyn er en sirkel.”
Whittaker har åpenbart sin egen agenda opp til et punkt. Som hun sa selv på arrangementet, “det er en verden der Signal og andre legitime teknologier for beskyttelse av personvernet vedvarer” fordi folk blir mindre og mindre komfortable med denne maktkonsentrasjonen.
Men også, hvis det ikke er nok pushback og snart – ettersom fremgangen innen AI akselererer, akselererer også de samfunnsmessige påvirkningene – vi fortsetter på vei nedover en “hypefylt vei mot AI,” sa hun, “hvor den kraften er forankret og naturalisert under dekke av intelligens, og vi er overvåket til poenget [of having] veldig, veldig lite handlekraft over våre individuelle og kollektive liv.»
Denne “bekymringen er eksistensiell, og den er mye større enn AI-innrammingen som ofte gis.”
Vi fant diskusjonen fengende; Hvis du vil se hele greia, har Bloomberg siden lagt det ut her.
Meredith Whittaker og flere av de skarpeste hjernene og fagfolkene innen cybersikkerhet vil bli med oss på TechCrunch Disrupt for å diskutere de største utfordringene i bransjen i dag. Bli med oss for å høre fra hackere, frontlinjeforsvarere og sikkerhetsforskere, og dra nytte av deres førstehåndskunnskap og erfaring om de mest kritiske truslene og hva som kan gjøres med dem. I tillegg vil du finne ut hvordan en teknologigigant jobber for å holde milliarder av brukere trygge, og du vil møte startups som jobber med å sikre krypto, maskinvare og meldinger for massene. Bli med oss der og få 25 % rabatt på Disrupt 2023-passet ditt med kampanjekode secure25 — kjøp her.