Investiție în Pinecone

Investiție în Pinecone

Nodul sursă: 2074396

Odată cu inflexiunea modelelor de limbaj mari (LLM), asistăm la o schimbare de paradigmă în dezvoltarea de software și în industria de calcul în ansamblu. AI se întâmplă și o nouă stivă se formează în fața ochilor noștri. Este ca și internetul din nou, care pune în funcțiune noi componente de infrastructură create pentru noul mod de a face lucrurile.

Există o recunoaștere tot mai mare a faptului că LLM-urile sunt de fapt o nouă formă de calculator, intr-un anumit sens. Ei pot rula „programe” scrise în limbaj natural (adică, solicitări), pot executa sarcini de calcul arbitrare (de exemplu, scrierea codului Python sau căutarea pe Google) și returnează rezultatele înapoi utilizatorului într-o formă care poate fi citită de om. Aceasta este o mare problemă, din două motive: 

  1. O nouă clasă de aplicații pentru rezumat și conținut generativ este acum posibilă, ducând la o schimbare a comportamentului consumatorilor în ceea ce privește consumul de software.
  2. O nouă clasă de dezvoltatori este acum capabilă să scrie software. Programarea computerelor necesită acum doar stăpânirea limbii engleze (sau a unei alte limbi umane), nu o pregătire într-un limbaj de programare tradițional precum Python sau JavaScript. 

Una dintre prioritățile noastre de top la Andreessen Horowitz este să identificăm companiile care construiesc componentele cheie ale acestei noi stive de inteligență artificială. Suntem încântați să anunțăm că conducem o rundă în Seria B de 100 de milioane de dolari pinecone, pentru a le susține viziunea de a deveni stratul de memorie pentru aplicațiile AI.

Problema: LLM-urile halucinează și sunt apatride

O provocare uriașă cu actualele LLM este halucinația. Ei dau răspunsuri foarte sigure, care sunt incorecte din punct de vedere faptic și uneori din punct de vedere logic. De exemplu, solicitarea unui LLM pentru marja brută a Apple pentru ultimul trimestru poate duce la un răspuns sigur de 63 de miliarde de dolari. Modelul poate chiar să-și susțină răspunsul explicând că scăzând 25 de miliarde de dolari din costul mărfurilor din venituri de 95 de miliarde de dolari, obțineți o marjă brută de 63 de miliarde de dolari. Desigur, este greșit pe mai multe dimensiuni:

  • În primul rând, numărul veniturilor este greșit, deoarece LLM nu are date în timp real. Funcționează cu date de antrenament învechite care au luni sau probabil ani.
  • În al doilea rând, a extras acele cifre ale veniturilor și costurilor mărfurilor în mod aleatoriu din situațiile financiare ale unei alte companii de fructe.
  • În al treilea rând, calculul marjei sale brute nu este corect din punct de vedere matematic.

Imaginați-vă că dați acest răspuns directorului general al a Avere 500 companie. 

Toate acestea se întâmplă pentru că, la sfârșitul zilei, LLM-urile sunt mașini de predicție antrenate pe cantități mari de date de pe internet terță parte. Adesea, informațiile de care utilizatorul are nevoie pur și simplu nu se află în setul de instruire. Deci, modelul va oferi răspunsurile cele mai probabile și bine formatate din punct de vedere lingvistic pe baza datelor sale de antrenament învechite. Putem deja să vedem o soluție potențială la problema de mai sus - furnizarea de date relevante din punct de vedere contextual al întreprinderii private în timp real către LLM.

Forma generală a acestei probleme este că, din perspectiva sistemelor, LLM-urile și majoritatea celorlalte modele AI sunt apatride la pasul de inferență. De fiecare dată când efectuați un apel către API-ul GPT-4, rezultatul depinde afară asupra datelor și parametrilor pe care îi trimiteți în sarcina utilă. Modelul nu are o modalitate încorporată de a încorpora date contextuale sau de a aminti ceea ce ați întrebat înainte. Reglarea fină a modelului este posibilă, dar este costisitoare și relativ inflexibilă (adică modelul nu poate răspunde la date noi în timp real). Deoarece modelele nu gestionează starea sau memoria pe cont propriu, este la latitudinea dezvoltatorilor să umple golul. 

Soluția: bazele de date vectoriale sunt stratul de stocare pentru LLM

Aici intervine Pinecone.

Pinecone este o bază de date externă în care dezvoltatorii pot stoca date contextuale relevante pentru aplicațiile LLM. În loc să trimită colecții mari de documente înainte și înapoi cu fiecare apel API, dezvoltatorii le pot stoca într-o bază de date Pinecone, apoi pot alege doar câteva dintre cele mai relevante pentru orice interogare dată - o abordare numită învățare în context. Este o necesitate pentru ca cazurile de utilizare ale întreprinderilor să înflorească cu adevărat.

În special, Pinecone este un vector baza de date, ceea ce înseamnă că datele sunt stocate sub formă de semnificație semantic încastrări. Deși o explicație tehnică a înglobărilor depășește domeniul de aplicare al acestei postări, partea importantă de înțeles este că LLM-urile operează și pe înglobări vectoriale - astfel încât, prin stocarea datelor în Pinecone în acest format, o parte a activității AI a fost efectiv preprocesată și descărcat în baza de date.

Spre deosebire de bazele de date existente, care sunt concepute pentru sarcini de lucru tranzacționale atomice sau analitice exhaustive, baza de date vectorială (Pinecone) este proiectată pentru căutarea aproximativă a vecinilor în cele din urmă, paradigma de bază de date potrivită pentru vectorii de dimensiuni mai mari. De asemenea, oferă API-uri pentru dezvoltatori care se integrează cu alte componente cheie ale aplicațiilor AI, cum ar fi OpenAI, Cohere, LangChain etc. Un astfel de design bine gândit face viața dezvoltatorilor mult mai ușoară. Sarcinile AI simple, cum ar fi căutarea semantică, recomandările de produse sau clasarea feed-urilor pot fi modelate direct ca probleme de căutare vectorială și rulate în baza de date vectorială fără un pas final de inferență a modelului - ceva ce bazele de date existente nu pot face.

Pinecone este standardul emergent pentru gestionarea datelor de stat și contextuale ale întreprinderii în aplicațiile LLM. Credem că este o componentă importantă a infrastructurii, care furnizează stratul de stocare sau „memorie” unui nou pachet de aplicații AI.

Progres incredibil pentru Pinecone până în prezent

Pinecone nu este singura bază de date vectorială, dar credem că este cea mai importantă bază de date vectorială – gata acum pentru adoptare în lumea reală – cu o marjă semnificativă. Pinecone a înregistrat o creștere de 8 ori a clienților plătiți (aproximativ 1,600) în doar trei luni, inclusiv companii de tehnologie de viitor precum Shopify, Gong, Zapier și altele. Este utilizat într-o gamă largă de industrii, inclusiv software pentru întreprinderi, aplicații pentru consumatori, comerț electronic, fintech, asigurări, media și AI/ML.

Atribuim acest succes nu numai înțelegerii profunde de către echipa a utilizatorului, a pieței și a tehnologiei, ci și – în mod critic – abordării lor de produse native din cloud încă de la început. Una dintre cele mai dificile părți ale construirii acestui serviciu este furnizarea unui backend cloud fiabil și foarte disponibil, care îndeplinește o gamă largă de obiective de performanță și SLA-uri ale clienților. Cu mai multe iterații asupra arhitecturii produsului și gestionând mulți clienți plătiți la scară mare în producție, această echipă a demonstrat excelența operațională așteptată de la o bază de date de producție.

pinecone a fost înființată de Edo Liberty, care a fost un susținător de lungă durată a importanței bazelor de date vectoriale în învățarea automată, inclusiv a modului în care acestea pot permite fiecărei întreprinderi să construiască cazuri de utilizare pe deasupra LLM-urilor. Ca matematician aplicat, și-a petrecut cariera studiind și implementând algoritmi de căutare vectorială de ultimă oră. În același timp, a fost un pragmatist, construind instrumente de ML de bază precum Sagemaker la AWS și transpunând cercetarea ML aplicată în produse practice pe care clienții le pot folosi. Este rar să vezi o asemenea combinație de cercetare profundă și gândire pragmatică a produselor.

Edo i se alătură Bob Wiederhold, un CEO și operator cu experiență (fostul Couchbase), în calitate de partener pe partea operațiunilor în calitate de președinte și COO. Pinecone are, de asemenea, o echipă fantastică de directori și ingineri cu experiență profundă în sistemele cloud din locuri precum AWS, Google și Databricks. Suntem impresionați de expertiza profundă în inginerie a echipei, concentrarea pe experiența dezvoltatorului și execuția eficientă a GTM și avem privilegiul să colaborăm cu ei pentru a construi stratul de memorie pentru aplicațiile AI.

* * *

Părerile exprimate aici sunt cele ale personalului individual AH Capital Management, LLC („a16z”) citat și nu sunt punctele de vedere ale a16z sau ale afiliaților săi. Anumite informații conținute aici au fost obținute din surse terțe, inclusiv de la companii de portofoliu de fonduri administrate de a16z. Deși este luat din surse considerate a fi de încredere, a16z nu a verificat în mod independent astfel de informații și nu face nicio declarație cu privire la acuratețea durabilă a informațiilor sau adecvarea lor pentru o anumită situație. În plus, acest conținut poate include reclame de la terți; a16z nu a revizuit astfel de reclame și nu aprobă niciun conținut publicitar conținut în acestea.

Acest conținut este furnizat doar în scop informativ și nu ar trebui să fie bazat pe consiliere juridică, de afaceri, de investiții sau fiscală. Ar trebui să vă consultați propriii consilieri cu privire la aceste aspecte. Referințele la orice titluri de valoare sau active digitale au doar scop ilustrativ și nu constituie o recomandare de investiții sau o ofertă de a oferi servicii de consiliere în materie de investiții. În plus, acest conținut nu este îndreptat și nici nu este destinat utilizării de către niciun investitor sau potențial investitor și nu poate fi bazat în nicio circumstanță atunci când se ia o decizie de a investi într-un fond administrat de a16z. (Ofertă de a investi într-un fond a16z va fi făcută numai prin memoriul de plasament privat, acordul de subscriere și alte documente relevante ale oricărui astfel de fond și trebuie citită în întregime.) Orice investiții sau companii de portofoliu menționate, la care se face referire sau descrise nu sunt reprezentative pentru toate investițiile în vehicule administrate de a16z și nu poate exista nicio asigurare că investițiile vor fi profitabile sau că alte investiții realizate în viitor vor avea caracteristici sau rezultate similare. O listă a investițiilor realizate de fondurile gestionate de Andreessen Horowitz (excluzând investițiile pentru care emitentul nu a oferit permisiunea ca a16z să dezvăluie public, precum și investițiile neanunțate în active digitale tranzacționate public) este disponibilă la https://a16z.com/investments /.

Diagramele și graficele furnizate în cadrul sunt doar în scop informativ și nu trebuie să se bazeze pe acestea atunci când se ia vreo decizie de investiție. Performanța trecută nu indică rezultatele viitoare. Conținutul vorbește doar de la data indicată. Orice previziuni, estimări, prognoze, obiective, perspective și/sau opinii exprimate în aceste materiale pot fi modificate fără notificare și pot diferi sau pot fi contrare opiniilor exprimate de alții. Vă rugăm să consultați https://a16z.com/disclosures pentru informații suplimentare importante.

Timestamp-ul:

Mai mult de la Andreessen Horowitz