Arbeidere som gjorde ChatGPT mindre skadelig, ber lovgivere om å stoppe påstått utnyttelse fra Big Tech
Kenyanske arbeidere som hjalp til med å fjerne skadelig innhold på ChatGPT, OpenAIs smarte søkemotor som genererer innhold basert på brukeroppfordringer, har sendt inn en begjæring før landets lovgivere som ber dem om å starte undersøkelser av Big Tech-outsourcing av innholdsmoderering og AI-arbeid i Kenya.
Begjærerne ønsker undersøkelser av “arbeidets art, arbeidsforholdene og driften” til de store teknologiselskapene som outsourcer tjenester i Kenya gjennom selskaper som Sama – som er kjernen i flere rettssaker om påstått utnyttelse, fagforeningskrøving og ulovlige masseoppsigelser av innholdsmoderatorer.
Begjæringen følger en Time-rapport som beskrev den ynkelige godtgjørelsen til Sama-arbeiderne som gjorde ChatGPT mindre giftig, og arten av jobben deres, som krevde lesing og merking av grafisk tekst, inkludert å beskrive scener med drap, bestialitet og voldtekt. Rapporten uttalte at på slutten av 2021 ble Sama kontrahert av OpenAI for å “merke tekstlige beskrivelser av seksuelle overgrep, hatytringer og vold” som en del av arbeidet med å bygge et verktøy (som var innebygd i ChatGPT) for å oppdage giftig innhold.
Arbeiderne sier at de ble utnyttet og ikke tilbudt psykososial støtte, men likevel ble de utsatt for skadelig innhold som førte til «alvorlig psykisk lidelse». Arbeiderne vil at lovgiverne skal «regulere outsourcing av skadelig og farlig teknologi» og beskytte arbeiderne som gjør det.
De oppfordrer dem også til å vedta lovgivning som regulerer “outsourcing av skadelig og farlig teknologiarbeid og beskytter arbeidere som er engasjert gjennom slike engasjementer.”
Sama sier at det teller 25 % av Fortune 50-selskapene, inkludert Google og Microsoft, som sine kunder. Det San Francisco-baserte selskapets hovedvirksomhet er annotering, kurering og validering av datasynsdata. Den sysselsetter mer enn 3000 mennesker på tvers av sine knutepunkter, inkludert den i Kenya. Tidligere i år droppet Sama innholdsmodereringstjenester for å konsentrere seg om datasynskommentarer, og sa opp 260 ansatte.
OpenAIs svar på den påståtte utnyttelsen erkjente at arbeidet var utfordrende, og la til at det hadde etablert og delt etiske standarder og velværestandarder (uten å gi ytterligere detaljer om de eksakte tiltakene) med sine dataannotatorer for at arbeidet skal leveres «menneskelig og villig».
De bemerket at for å bygge trygg og fordelaktig kunstig generell intelligens, var annotering av menneskelige data en av de mange strømmene i arbeidet med å samle inn menneskelig tilbakemelding og veilede modellene mot tryggere oppførsel i den virkelige verden.
“Vi innser at dette er utfordrende arbeid for våre forskere og annoteringsarbeidere i Kenya og rundt om i verden – deres innsats for å sikre sikkerheten til AI-systemer har vært enormt verdifull,” sa OpenAIs talsperson.
Sama fortalte TechCrunch at det var åpent for å samarbeide med den kenyanske regjeringen “for å sikre at grunnlinjebeskyttelse er på plass hos alle selskaper.” Den sa at den ønsker tredjepartsrevisjoner av arbeidsforholdene deres velkommen, og legger til at ansatte har flere kanaler for å reise bekymringer, og at de har “utført flere eksterne og interne evalueringer og revisjoner for å sikre at vi betaler rettferdig lønn og gir et arbeidsmiljø som er verdig.”