OpenAI gjør GPT-4 allment tilgjengelig

OpenAI kunngjorde i dag den generelle tilgjengeligheten av GPT-4, den nyeste tekstgenererende modellen, gjennom API-en.

Fra i ettermiddag kan alle eksisterende OpenAI API-utviklere «med en historie med vellykkede betalinger» få tilgang til GPT-4. Selskapet planlegger å åpne opp tilgang for nye utviklere innen slutten av denne måneden, og deretter begynne å heve tilgjengelighetsgrensene etter det “avhengig av tilgjengelighet av datamaskiner.”

“Millioner av utviklere har bedt om tilgang til GPT-4 API siden mars, og utvalget av innovative produkter som utnytter GPT-4 vokser hver dag,” skrev OpenAI i et blogginnlegg. «Vi ser for oss en fremtid der chat-baserte modeller kan støtte enhver brukssituasjon. ”

GPT-4 kan generere tekst (inkludert kode) og godta bilde- og tekstinndata – en forbedring i forhold til GPT-3.5, forgjengeren, som bare aksepterte tekst – og presterer på “menneskelig nivå” på ulike profesjonelle og akademiske benchmarks. I likhet med tidligere GPT-modeller fra OpenAI, ble GPT-4 trent ved å bruke offentlig tilgjengelige data, inkludert fra offentlige nettsider, samt data som OpenAI lisensierte.

Muligheten for bildeforståelse er ikke tilgjengelig for alle OpenAI-kunder ennå. OpenAI tester det med en enkelt partner, Be My Eyes, til å begynne med. Men den har ikke angitt når den vil åpne den for den bredere kundebasen.

Det er verdt å merke seg at, som med selv de beste generative AI-modellene i dag, er ikke GPT-4 perfekt. Den “hallusinerer” fakta og gjør resonneringsfeil, noen ganger med selvtillit. Og den lærer ikke av sin erfaring, og mislykkes i vanskelige problemer som å introdusere sikkerhetssårbarheter i kode den genererer.

I fremtiden sier OpenAI at det vil tillate utviklere å finjustere GPT-4 og GPT-3.5 Turbo, en av de andre nyere, men mindre kapable tekstgenererende modellene (og en av de originale modellene som driver ChatGPT), med deres egne data, slik det lenge har vært mulig med flere av OpenAIs andre tekstgenererende modeller. Den evnen skulle komme senere i år, ifølge OpenAI.

Siden avsløringen av GPT-4 i mars har den generative AI-konkurransen blitt hardere. Nylig utvidet Anthropic kontekstvinduet for Claude – flaggskipets tekstgenererende AI-modell, fortsatt i forhåndsvisning – fra 9 000 tokens til 100 000 tokens. (Kontekstvinduet refererer til teksten modellen vurderer før den genererer tilleggstekst, mens tokens representerer råtekst – for eksempel vil ordet “fantastisk” deles inn i symbolene “fan”, “tas” og “tic.)

GPT-4 hadde den forrige kronen når det gjelder kontekstvindu, og veide inn på 32 000 tokens på den høye enden. Generelt sett har modeller med små kontekstvinduer en tendens til å “glemme” innholdet i til og med helt nyere samtaler, noe som fører til at de går utenfor emnet.

I en relatert kunngjøring i dag sa OpenAI at de gjør sine DALL-E 2 og Whisper APIer generelt tilgjengelige – DALL-E 2 er OpenAIs bildegenererende modell og “Whisper” refererer til selskapets tale-til-tekst-modell. Selskapet sa også at det planlegger å avskrive gamle modeller tilgjengelig gjennom API-en for å “optimalisere [its] regnekapasitet.” (I løpet av de siste månedene, mye takket være den eksploderende populariteten til ChatGPT, har OpenAI slitt med å holde tritt med etterspørselen etter sine generative modeller.)

Fra og med 4. januar 2024 vil visse eldre OpenAI-modeller – spesifikt GPT-3 og dens derivater – ikke lenger være tilgjengelige, og vil bli erstattet med nye “base GPT-3”-modeller som man vil anta er mer dataeffektive. Utviklere som bruker de gamle modellene må manuelt oppgradere integrasjonene sine innen 4. januar, og de som ønsker å fortsette å bruke finjusterte gamle modeller utover 4. januar må finjustere erstatningene på toppen av de nye GPT-3-modellene.

“Vi vil gi støtte til brukere som tidligere har finjustert modeller for å gjøre denne overgangen så smidig som mulig,” skrev OpenAI. “I de kommende ukene vil vi nå ut til utviklere som nylig har brukt disse eldre modellene, og vil gi mer informasjon når de nye kompletteringsmodellene er klare for tidlig testing.”

Read More