ChatGPT-feberen sprer seg til den amerikanske arbeidsplassen, og larmer for noen

LONDON/WASHINGTON, 11. august (Reuters) – Mange arbeidere over hele USA henvender seg til ChatGPT for å hjelpe med grunnleggende oppgaver, fant en Reuters/Ipsos-undersøkelse, til tross for frykt som har ført til at arbeidsgivere som Microsoft og Google har begrenset bruken.

Bedrifter over hele verden vurderer hvordan de best kan bruke ChatGPT, et chatbot-program som bruker generativ AI for å holde samtaler med brukere og svare på utallige spørsmål. Sikkerhetsfirmaer og selskaper har imidlertid reist bekymring for at det kan føre til lekkasjer av intellektuell eiendom og strategi.

Anekdotiske eksempler på personer som bruker ChatGPT for å hjelpe med det daglige arbeidet inkluderer å utarbeide e-poster, oppsummere dokumenter og gjøre forundersøkelser.

Omtrent 28 % av respondentene på nettundersøkelsen om kunstig intelligens (AI) mellom 11. og 17. juli sa at de regelmessig bruker ChatGPT på jobben, mens bare 22 % sa at arbeidsgiverne deres eksplisitt tillot slike eksterne verktøy.

Reuters/Ipsos-undersøkelsen av 2625 voksne over hele USA hadde et troverdighetsintervall, et mål på presisjon, på omtrent 2 prosentpoeng.

Omtrent 10 % av de spurte sa at sjefene deres eksplisitt forbød eksterne AI-verktøy, mens omtrent 25 % ikke visste om selskapet deres tillot bruk av teknologien.

ChatGPT ble den raskest voksende appen i historien etter lanseringen i november. Det har skapt både spenning og alarm, og bragt utvikleren OpenAI i konflikt med regulatorer, spesielt i Europa, hvor selskapets masseinnsamling av data har fått kritikk fra personvernvakter.

Menneskelige anmeldere fra andre selskaper kan lese hvilken som helst av de genererte chattene, og forskere fant ut at lignende kunstig intelligens AI kunne reprodusere data den absorberte under trening, og skape en potensiell risiko for proprietær informasjon.

“Folk forstår ikke hvordan dataene brukes når de bruker generative AI-tjenester,” sa Ben King, VP for kundetillit hos bedriftens sikkerhetsfirma Okta (OKTA.O).

“For bedrifter er dette kritisk, fordi brukere ikke har en kontrakt med mange AI-er – fordi de er en gratis tjeneste – så bedrifter vil ikke ha løpt risikoen gjennom sin vanlige vurderingsprosess,” sa King.

OpenAI nektet å kommentere da de ble spurt om implikasjonene av individuelle ansatte som bruker ChatGPT, men fremhevet et nylig firmablogginnlegg som forsikret bedriftspartnere om at dataene deres ikke ville bli brukt til å trene chatboten videre, med mindre de ga eksplisitt tillatelse.

Når folk bruker Googles Bard samler den inn data som tekst, plassering og annen bruksinformasjon. Selskapet lar brukere slette tidligere aktivitet fra kontoene sine og be om at innhold som mates inn i AI-en fjernes. Alfabet-eid (GOOGL.O) Google nektet å kommentere da de ble bedt om ytterligere detaljer.

Microsoft (MSFT.O) svarte ikke umiddelbart på en forespørsel om kommentar.

‘UFARLIG OPPGAVER’

En amerikansk ansatt i Tinder sa at arbeidere ved datingappen brukte ChatGPT til «ufarlige oppgaver» som å skrive e-poster selv om selskapet offisielt ikke tillater det.

“Det er vanlige e-poster. Svært uten betydning, som å lage morsomme kalenderinvitasjoner til teamarrangementer, avskjeds-e-poster når noen drar … Vi bruker det også til generell forskning,” sa den ansatte, som nektet å bli navngitt fordi de ikke ble navngitt. autorisert til å snakke med journalister.

Den ansatte sa at Tinder har en “ingen ChatGPT-regel”, men at ansatte fortsatt bruker den på en “generisk måte som ikke avslører noe om at vi er på Tinder”.

Reuters kunne ikke uavhengig bekrefte hvordan ansatte på Tinder brukte ChatGPT. Tinder sa at det ga “regelmessig veiledning til ansatte om beste sikkerhet og datapraksis”.

I mai forbød Samsung Electronics ansatte globalt fra å bruke ChatGPT og lignende AI-verktøy etter å ha oppdaget at en ansatt hadde lastet opp sensitiv kode til plattformen.

“Vi vurderer tiltak for å skape et sikkert miljø for generativ AI-bruk som forbedrer ansattes produktivitet og effektivitet,” sa Samsung i en uttalelse 3. august.

“Men inntil disse tiltakene er klare, begrenser vi midlertidig bruken av generativ AI gjennom selskapets enheter.”

Reuters rapporterte i juni at Alphabet hadde advart ansatte om hvordan de bruker chatbots inkludert Googles Bard, samtidig som de markedsfører programmet globalt.

Google sa at selv om Bard kan komme med uønskede kodeforslag, hjelper det programmerere. Den sa også at den hadde som mål å være åpen om begrensningene til teknologien.

TEPE FORBUD

Noen selskaper fortalte Reuters at de omfavner ChatGPT og lignende plattformer, mens de har sikkerhet i tankene.

“Vi har begynt å teste og lære om hvordan AI kan forbedre operasjonell effektivitet,” sa en Coca-Cola-talsperson i Atlanta, Georgia, og la til at data forblir innenfor brannmuren.

“Internt har vi nylig lansert vår bedriftsversjon av Coca-Cola ChatGPT for produktivitet,” sa talspersonen, og la til at Coca-Cola planlegger å bruke AI for å forbedre effektiviteten og produktiviteten til teamene sine.

Tate & Lyle (TATE.L) finansdirektør Dawn Allen fortalte i mellomtiden til Reuters at den globale ingrediensprodusenten prøvde ChatGPT, etter å ha “funnet en måte å bruke det på en sikker måte”.

“Vi har fått forskjellige team til å bestemme hvordan de vil bruke det gjennom en rekke eksperimenter. Bør vi bruke det i investorrelasjoner? Skal vi bruke det i kunnskapsforvaltning? Hvordan kan vi bruke det til å utføre oppgaver mer effektivt?”

Noen ansatte sier at de ikke kan få tilgang til plattformen på bedriftens datamaskiner i det hele tatt.

“Det er fullstendig forbudt på kontornettverket, som om det ikke fungerer,” sa en ansatt i Procter & Gamble (PG.N), som ønsket å være anonym fordi de ikke var autorisert til å snakke med pressen.

P&G nektet å kommentere. Reuters var ikke i stand til uavhengig å bekrefte om ansatte ved P&G ikke var i stand til å bruke ChatGPT.

Paul Lewis, sjef for informasjonssikkerhet ved cybersikkerhetsfirmaet Nominet, sa at firmaer hadde rett til å være forsiktige.

“Alle får fordelen av den økte muligheten, men informasjonen er ikke helt sikker og den kan konstrueres,” sa han, og siterer “ondsinnede spørsmål” som kan brukes til å få AI-chatboter til å avsløre informasjon.

“Et generell forbud er ikke berettiget ennå, men vi må trå forsiktig,” sa Lewis.

Rapportering av Richa Naidu, Martin Coulter og Jason Lange; Redigering av Alexander Smith

Våre standarder: Thomson Reuters Trust Principles.

Skaff lisensrettigheter, åpner ny fane Richa Naidu

Thomson Reuters

London-basert reporter som dekker detaljhandel og forbruksvarer, analyserer trender inkludert dekning av forsyningskjeder, reklamestrategier, bedriftsstyring, bærekraft, politikk og regulering. Skrev tidligere om USA-baserte forhandlere, store finansinstitusjoner og dekket de olympiske leker i Tokyo 2020.

Read More