AI-generert hat øker: 3 ting ledere bør vurdere før de tar i bruk denne nye teknologien
Jonathan A. Greenblatt Bidragsyter Del på Twitter Jonathan A. Greenblatt er administrerende direktør og nasjonal direktør for Anti-Defamation League.
Når du hører uttrykket «kunstig intelligens», kan det være fristende å forestille seg hvilke intelligente maskiner som er en bærebjelke i science fiction eller utvidelser av den typen apokalyptisk teknofobi som har fascinert menneskeheten siden Dr. Frankensteins monster.
Men den typen AI som raskt blir integrert i virksomheter rundt om i verden er ikke av denne variasjonen – de er veldig ekte teknologier som har en reell innvirkning på faktiske mennesker.
Mens AI allerede har vært tilstede i forretningsmiljøer i årevis, vil utviklingen av generative AI-produkter som ChatGPT, ChatSonic, Jasper AI og andre dramatisk eskalere brukervennligheten for den gjennomsnittlige personen. Som et resultat er den amerikanske offentligheten dypt bekymret for potensialet for misbruk av disse teknologiene. En fersk ADL-undersøkelse fant at 84 % av amerikanerne er bekymret for at generativ AI vil øke spredningen av feilinformasjon og hat.
Ledere som vurderer å ta i bruk denne teknologien bør stille seg selv tøffe spørsmål om hvordan den kan forme fremtiden – både på godt og vondt – når vi går inn i denne nye grensen. Her er tre ting jeg håper alle ledere vil vurdere når de integrerer generative AI-verktøy i organisasjoner og arbeidsplasser.
Gjør tillit og sikkerhet til en topp prioritet
Mens sosiale medier er vant til å kjempe med innholdsmoderering, introduseres generativ AI på arbeidsplasser som ikke har tidligere erfaring med å håndtere disse problemene, for eksempel helsevesen og finans. Mange bransjer kan snart oppleve at de plutselig står overfor vanskelige nye utfordringer når de tar i bruk disse teknologiene. Hvis du er et helseselskap hvis frontlinje AI-drevne chatbot plutselig er frekk eller til og med hatefull mot en pasient, hvordan vil du håndtere det?
Til tross for all kraften og potensialet, gjør generativ AI det enkelt, raskt og tilgjengelig for dårlige skuespillere å produsere skadelig innhold.
Gjennom flere tiår har sosiale medieplattformer utviklet en ny disiplin – tillit og sikkerhet – for å prøve å få armene rundt vanskelige problemer knyttet til brukergenerert innhold. Slik er det ikke med andre bransjer.
Av den grunn vil bedrifter måtte hente inn eksperter på tillit og sikkerhet for å snakke om implementeringen. De må bygge ekspertise og tenke gjennom hvordan disse verktøyene kan misbrukes. Og de må investere i ansatte som er ansvarlige for å ta tak i overgrep, slik at de ikke blir tatt på flatfot når disse verktøyene blir misbrukt av dårlige skuespillere.
Etabler høye rekkverk og insister på åpenhet
Spesielt i arbeids- eller utdanningsmiljøer er det avgjørende at AI-plattformer har tilstrekkelige rekkverk for å forhindre generering av hatefullt eller trakasserende innhold.
Selv om de er utrolig nyttige verktøy, er AI-plattformer ikke 100 % idiotsikre. I løpet av noen få minutter, for eksempel, brukte ADL-testere nylig Expedia-appen, med dens nye ChatGPT-funksjonalitet, for å lage en reiserute med kjente anti-jødiske pogromer i Europa og en liste over nærliggende kunstbutikker hvor man kunne kjøpe spraymaling, tilsynelatende å drive hærverk mot disse nettstedene.
Selv om vi har sett noen generative AI-er forbedre håndteringen av spørsmål som kan føre til antisemittiske og andre hatefulle svar, har vi sett andre komme til kort når de sikrer at de ikke vil bidra til spredning av hat, trakassering, konspirasjonsteorier og andre typer skadelig innhold.
Før de tar i bruk AI bredt, bør ledere stille kritiske spørsmål, for eksempel: Hva slags testing gjøres for å sikre at disse produktene ikke er åpne for misbruk? Hvilke datasett brukes til å konstruere disse modellene? Og er opplevelsene til fellesskap som er mest målrettet av netthat integrert i etableringen av disse verktøyene?
Uten åpenhet fra plattformer er det rett og slett ingen garanti for at disse AI-modellene ikke muliggjør spredning av skjevheter eller bigotry.
Sikre seg mot bevæpning
Selv med robust tillit og sikkerhetspraksis, kan AI fortsatt misbrukes av vanlige brukere. Som ledere må vi oppmuntre designere av AI-systemer til å bygge inn beskyttelse mot menneskelig våpen.
Dessverre, på tross av all deres kraft og potensial, gjør AI-verktøy det enkelt, raskt og tilgjengelig for dårlige skuespillere å produsere innhold for alle disse scenariene. De kan produsere overbevisende falske nyheter, lage visuelt overbevisende deepfakes og spre hat og trakassering i løpet av sekunder. Generativt AI-generert innhold kan også bidra til spredning av ekstremistiske ideologier – eller brukes til å radikalisere mottakelige individer.
Som svar på disse truslene bør AI-plattformer innlemme robuste modereringssystemer som kan motstå den potensielle oversvømmelsen av skadelig innhold som gjerningsmennene kan generere ved bruk av disse verktøyene.
Generativ AI har nesten ubegrenset potensial til å forbedre liv og revolusjonere hvordan vi behandler den endeløse mengden informasjon som er tilgjengelig på nettet. Jeg er spent på utsiktene for en fremtid med AI, men bare med ansvarlig lederskap.