Nvidia lanserer ny AI-brikkekonfigurasjon

8. august (Reuters) – Nvidia (NVDA.O) annonserte tirsdag en ny konfigurasjon for sine avanserte kunstig intelligens-brikker som er designet for å øke hastigheten på generative AI-applikasjoner.

Den nye versjonen av Grace Hopper Superchip øker mengden minne med høy båndbredde, noe som vil gi designet kapasitet til å drive større AI-modeller, ifølge Nvidias visepresident for hyperscale og HPC, Ian Buck. Konfigurasjonen er optimalisert for å utføre AI-inferensfunksjoner som effektivt driver generative AI-applikasjoner som ChatGPT.

Nvidias Grace Hopper Superchip-design syr sammen en av selskapets H100-grafikkbehandlingsenheter (GPU) med en Nvidia-designet sentralprosessor.

“Å ha større minne gjør det mulig for modellen å forbli på en enkelt GPU og må kreve flere systemer eller flere GPUer for å kjøre,” sa Buck i en konferansesamtale med journalister.

De underliggende AI-modellene som driver de generative AI-appene som er i stand til å produsere menneskelignende tekst og bilder fortsetter å vokse i størrelse. Etter hvert som modellstørrelsene øker, krever de en større mengde minne for å kjøre uten å koble til separate brikker og systemer, noe som reduserer ytelsen.

“Det ekstra minnet, det øker ganske enkelt ytelsen til GPUen,” sa Buck.

Den nye konfigurasjonen kalt GH200 vil være tilgjengelig i andre kvartal neste år, sa Buck.

Nvidia planlegger å selge to smaker: en versjon som inkluderer to brikker som kunder kan integrere i systemer, og et komplett serversystem som kombinerer to Grace Hopper-design.

Rapportering av Max A. Cherney i San Francisco Redigering av Marguerita Choy

Våre standarder: Thomson Reuters Trust Principles.

Read More