Kontekstuell AI lanseres fra stealth til å bygge bedriftsfokuserte språkmodeller

Store språkmodeller (LLMs) som OpenAIs GPT-4 er kraftige, paradigmeskiftende verktøy som lover å oppgradere bransjer. Men de lider av begrensninger som gjør dem mindre attraktive for bedriftsorganisasjoner med strenge overholdelses- og styringskrav. For eksempel har LLM-er en tendens til å lage informasjon med høy selvtillit, og de er utformet på en måte som gjør det vanskelig å fjerne – eller til og med revidere – kunnskapsbasen deres.

For å løse disse og andre veisperringene, var Douwe Kiela med på å grunnlegge Contextual AI, som i dag ble lansert for skjult med $20 millioner i startfinansiering. Støttet av investorer inkludert Bain Capital Ventures (som ledet frøet), Lightspeed, Greycroft og SV Angel, har Contextual AI ambisiøst mål om å bygge «neste generasjon» av LLM-er for bedriften.

“Vi opprettet selskapet for å møte behovene til bedrifter i det voksende området generativ AI, som så langt i stor grad har fokusert på forbrukere,” sa Kiela til TechCrunch via e-post. “Kontekstuell AI løser flere hindringer som finnes i dag for å få bedrifter til å ta i bruk generativ AI.”

Kiela og Contextual AIs andre medgründer, Amanpreet Singh, jobbet sammen på AI-startup Hugging Face og Meta før de bestemte seg for å gå på egen hånd i begynnelsen av februar. Mens han var på Meta, ledet Kiela forskning på en teknikk kalt retrieval augmented generation (RAG), som danner grunnlaget for Contextual AIs tekstgenererende AI-teknologi.

Så hva er RAG? I et nøtteskall, RAG – som Googles DeepMInd R&D-avdeling også har utforsket – utvider LLM-er med eksterne kilder, som filer og nettsider, for å forbedre ytelsen. Gitt en oppfordring (f.eks. «Hvem er presidenten i USA?»), ser RAG etter data innenfor kildene som kan være relevante. Deretter pakker den resultatene med den originale ledeteksten og mater den til en LLM, og genererer et “kontekstbevisst” svar (f.eks. “Den nåværende presidenten er Joe Biden, ifølge det offisielle nettstedet til Det hvite hus”).

Derimot, som svar på et spørsmål som “Hva er Nepals BNP etter år?”, kan en typisk LLM (f.eks. ChatGPT) bare returnere BNP til en viss dato og unnlate å oppgi kilden til informasjonen.

Kiela hevder at RAG kan løse de andre utestående problemene med dagens LLM-er, som de rundt attribusjon og tilpasning. Med konvensjonelle LLM-er kan det være vanskelig å vite hvorfor modellene reagerer som de gjør, og å legge til datakilder til LLM-er krever ofte omskolering eller finjustering – trinn som (vanligvis) unngås med RAG.

«RAG-språkmodeller kan være mindre enn tilsvarende språkmodeller og fortsatt oppnå samme ytelse. Dette gjør dem mye raskere, noe som betyr lavere ventetid og lavere kostnader, sa Kiela. “Vår løsning tar for seg manglene og nedarvede problemer ved eksisterende tilnærminger. Vi tror at integrering og felles optimering av ulike moduler for dataintegrasjon, resonnement, tale og til og med å se og lytte vil frigjøre det sanne potensialet til språkmodeller for bedriftsbruk.»

Min kollega Ron Miller har fundert på hvordan generativ AIs fremtid i bedriften kan være mindre, mer fokuserte språkmodeller. Det bestrider jeg ikke. Men kanskje i stedet for utelukkende finjusterte, bedriftsfokuserte LLM-er, vil det være en kombinasjon av “mindre” modeller og eksisterende LLM-er utvidet med mengder av bedriftsspesifikke dokumenter.

Kontekstuell AI er ikke den første som utforsker denne ideen. OpenAI og dets nære partner, Microsoft, lanserte nylig et plug-ins-rammeverk som lar tredjeparter legge til informasjonskilder til LLM-er som GPT-4. Andre startups, som LlamaIndex, eksperimenterer med måter å injisere personlige eller private data, inkludert bedriftsdata, i LLM-er.

Men Contextual AI hevder å ha inntog i bedriften. Mens selskapet for tiden har førinntekt, hevder Kiela at Contextual AI er i samtaler med Fortune 500-selskaper for å pilotere teknologien.

“Bedrifter må være sikre på at svarene de får fra generativ AI er nøyaktige, pålitelige og sporbare,” sa Kiela. «Kontekstuell AI vil gjøre det enkelt for arbeidsgivere og deres verdifulle kunnskapsarbeidere å oppnå effektivitetsfordelene som generativ AI kan gi, samtidig som de gjør det trygt og nøyaktig … Flere generative AI-selskaper har uttalt at de vil forfølge bedriftsmarkedet, men Contextual AI vil ta en annen tilnærming ved å bygge en mye mer integrert løsning rettet spesielt for bedriftsbruk.»

Contextual AI, som har rundt åtte ansatte, planlegger å bruke mesteparten av startfinansieringen sin på produktutvikling, som vil inkludere investering i en dataklynge for å trene LLM-er. Selskapet planlegger å øke arbeidsstyrken til nærmere 20 personer innen utgangen av 2023.

Read More