20 timer siden ChatGPT-ordliste: 41 AI-vilkår som alle bør kjenne til

ChatGPT, AI-chatboten fra OpenAI, som har en utrolig evne til å svare på alle spørsmål, var sannsynligvis din første introduksjon til AI. Fra å skrive dikt, CV og fusjonsoppskrifter, har kraften til ChatGPT blitt sammenlignet med autofullføring på steroider.

Men AI chatbots er bare en del av AI-landskapet. Visst, det er kult å ha ChatGPT til å gjøre leksene dine eller å la Midjourney lage fascinerende bilder av mekanismer basert på opprinnelsesland, men potensialet kan fullstendig omforme økonomier. Dette potensialet kan være verdt 4,4 billioner dollar for den globale økonomien årlig, ifølge McKinsey Global Institute, og det er derfor du bør forvente å høre mer og mer om kunstig intelligens.

Etter hvert som folk blir mer vant til en verden sammenvevd med AI, dukker det opp nye begreper overalt. Så enten du prøver å høres smart ut over drinker eller imponere i et jobbintervju, her er noen viktige AI-termer du bør kjenne til.

Denne ordlisten vil fortløpende bli oppdatert.

Kunstig generell intelligens, eller AGI: Et konsept som foreslår en mer avansert versjon av AI enn vi kjenner til i dag, en som kan utføre oppgaver mye bedre enn mennesker samtidig som den lærer og fremmer sine egne evner.

AI-etikk: Prinsipper som tar sikte på å forhindre AI fra å skade mennesker, oppnådd gjennom midler som å bestemme hvordan AI-systemer skal samle inn data eller håndtere skjevheter.

AI-sikkerhet: Et tverrfaglig felt som er opptatt av de langsiktige virkningene av AI og hvordan den plutselig kan utvikle seg til en superintelligens som kan være fiendtlig mot mennesker.

Algoritme: En serie instruksjoner som lar et dataprogram lære og analysere data på en bestemt måte, for eksempel gjenkjenne mønstre, for så å lære av dem og utføre oppgaver på egen hånd.

Justering: Tweaking en AI for bedre å produsere ønsket resultat. Dette kan referere til alt fra moderering av innhold til å opprettholde positive interaksjoner med mennesker.

Antropomorfisme: Når mennesker har en tendens til å gi ikke-menneskelige gjenstander menneskelignende egenskaper. I AI kan dette inkludere å tro at en chatbot er mer menneskelig og bevisst enn den faktisk er, som å tro at den er glad, trist eller til og med følende.

Kunstig intelligens, eller AI: Bruk av teknologi for å simulere menneskelig intelligens, enten i dataprogrammer eller robotikk. Et felt innen informatikk som har som mål å bygge systemer som kan utføre menneskelige oppgaver.

Partiskhet: Når det gjelder store språkmodeller, feil som følge av treningsdataene. Dette kan føre til at visse raser eller grupper feilaktig tilskrives visse egenskaper basert på stereotypier.

Chatbot: Et program som kommuniserer med mennesker gjennom tekst som simulerer menneskelig språk.

ChatGPT: En AI-chatbot utviklet av OpenAI som bruker teknologi for store språkmodeller.

Kognitiv databehandling: En annen betegnelse for kunstig intelligens.

Dataforsterkning: Remiks eksisterende data eller legge til et mer variert sett med data for å trene en AI.

Dyp læring: En metode for AI, og et underfelt av maskinlæring, som bruker flere parametere for å gjenkjenne komplekse mønstre i bilder, lyd og tekst. Prosessen er inspirert av den menneskelige hjernen og bruker kunstige nevrale nettverk for å lage mønstre.

Diffusjon: En metode for maskinlæring som tar et eksisterende datastykke, som et bilde, og legger til tilfeldig støy. Diffusjonsmodeller trener nettverkene sine til å omkonstruere eller gjenopprette det bildet.

Emergent atferd: Når en AI-modell viser utilsiktede evner.

End-to-end læring, eller E2E: En dyp læringsprosess der en modell blir instruert til å utføre en oppgave fra start til slutt. Den er ikke opplært til å utføre en oppgave sekvensielt, men lærer i stedet av inputene og løser alt på en gang.

Etiske vurderinger: En bevissthet om de etiske implikasjonene av AI og spørsmål knyttet til personvern, databruk, rettferdighet, misbruk og andre sikkerhetsproblemer.

Foom: Også kjent som rask start eller hard takeoff. Konseptet om at hvis noen bygger en AGI, kan det allerede være for sent å redde menneskeheten.

Generative kontradiktoriske nettverk, eller GAN-er: En generativ AI-modell sammensatt av to nevrale nettverk for å generere nye data: en generator og en diskriminator. Generatoren lager nytt innhold, og diskriminatoren sjekker om det er autentisk.

Generativ AI: En innholdsgenererende teknologi som bruker AI til å lage tekst, video, datakode eller bilder. AI mates med store mengder treningsdata, finner mønstre for å generere sine egne nye svar, som noen ganger kan ligne på kildematerialet.

Google Bard: En AI-chatbot fra Google som fungerer på samme måte som ChatGPT, men henter informasjon fra det nåværende nettet, mens ChatGPT er begrenset til data frem til 2021 og ikke er koblet til internett.

Rekkverk: Retningslinjer og begrensninger på AI-modeller for å sikre at data håndteres ansvarlig og at modellen ikke skaper forstyrrende innhold.

Hallusinasjon: Et feil svar fra AI. Kan inkludere generativ AI som produserer svar som er feil, men oppgitt med selvtillit som om de er riktige. Årsakene til dette er ikke helt kjent. For eksempel, når du spør en AI-chatbot: “Når malte Leonardo da Vinci Mona Lisa?” det kan svare med en feil uttalelse som sier: “Leonardo da Vinci malte Mona Lisa i 1815,” som er 300 år etter at den faktisk ble malt.

Stor språkmodell, eller LLM: En AI-modell trent på store mengder tekstdata for å forstå språk og generere nytt innhold på menneskelignende språk.

Maskinlæring, eller ML: En komponent i AI som lar datamaskiner lære og lage bedre prediktive resultater uten eksplisitt programmering. Kan kombineres med treningssett for å generere nytt innhold.

Microsoft Bing: En søkemotor fra Microsoft som nå kan bruke teknologien som driver ChatGPT for å gi AI-drevne søkeresultater. Det ligner på Google Bard ved å være koblet til internett.

Multimodal AI: En type AI som kan behandle flere typer input, inkludert tekst, bilder, videoer og tale.

Naturlig språkbehandling: En gren av AI som bruker maskinlæring og dyp læring for å gi datamaskiner muligheten til å forstå menneskelig språk, ofte ved hjelp av læringsalgoritmer, statistiske modeller og språklige regler.

Nevrale nettverket: En beregningsmodell som ligner den menneskelige hjernens struktur og er ment å gjenkjenne mønstre i data. Består av sammenkoblede noder, eller nevroner, som kan gjenkjenne mønstre og lære over tid.

Overmontering: Feil i maskinlæring der den fungerer for nært treningsdataene og kanskje bare kan identifisere spesifikke eksempler i nevnte data, men ikke nye data.

Parametere: Numeriske verdier som gir LLM-er struktur og oppførsel, som gjør det mulig for dem å forutsi.

Rask kjetting: En evne til AI til å bruke informasjon fra tidligere interaksjoner til å fargelegge fremtidige svar.

Stokastisk papegøye: En analogi av LLM-er som illustrerer at programvaren ikke har en større forståelse av betydningen bak språket eller verden rundt det, uavhengig av hvor overbevisende utdataene høres ut. Uttrykket refererer til hvordan en papegøye kan etterligne menneskelige ord uten å forstå meningen bak dem.

Stiloverføring: Evnen til å tilpasse stilen til ett bilde til innholdet i et annet, slik at en AI kan tolke de visuelle egenskapene til ett bilde og bruke det på et annet. For eksempel å ta selvportrettet av Rembrandt og gjenskape det i stil med Picasso.

Temperatur: Parametere satt for å kontrollere hvor tilfeldig en språkmodells utdata er. En høyere temperatur betyr at modellen tar mer risiko.

Tekst-til-bilde generering: Lage bilder basert på tekstlige beskrivelser.

Treningsdata: Datasettene som brukes til å hjelpe AI-modeller med å lære, inkludert tekst, bilder, kode eller data.

Transformator modell: En nevral nettverksarkitektur og dyp læringsmodell som lærer kontekst ved å spore relasjoner i data, som i setninger eller deler av bilder. Så i stedet for å analysere en setning ett ord om gangen, kan den se på hele setningen og forstå konteksten.

Turing test: Oppkalt etter den berømte matematikeren og informatikeren Alan Turing, tester den en maskins evne til å oppføre seg som et menneske. Maskinen passerer hvis et menneske ikke kan skille maskinens respons fra et annet menneske.

Svak AI, aka smal AI: AI som er fokusert på en bestemt oppgave og ikke kan lære utover ferdighetssettet. Det meste av dagens AI er svak AI.

Nullskuddslæring: En test der en modell må fullføre en oppgave uten å få de nødvendige treningsdataene. Et eksempel kan være å gjenkjenne en løve mens han bare blir trent på tigre.

Redaktørens merknad: CNET bruker en AI-motor for å lage noen historier. For mer, se dette innlegget.

Read More