Cine deține platforma AI generativă?

Cine deține platforma AI generativă?

Nodul sursă: 1909271

Începem să vedem etapele incipiente ale unei stive tehnologice care apar în inteligența artificială generativă (AI). Sute de noi startup-uri se grăbesc pe piață pentru a dezvolta modele de bază, pentru a construi aplicații native AI și pentru a susține infrastructura/instrumentele.

Multe tendințe tehnologice fierbinți devin exagerate cu mult înainte ca piața să ajungă din urmă. Dar boom-ul generativ al inteligenței artificiale a fost însoțit de câștiguri reale pe piețele reale și de tracțiune reală din partea companiilor reale. Modele precum Stable Diffusion și ChatGPT stabilesc recorduri istorice pentru creșterea utilizatorilor, iar mai multe aplicații au atins venituri anuale de 100 de milioane USD la mai puțin de un an de la lansare. Comparațiile una lângă alta arată modele AI depășind oamenii în unele sarcini de ordine de mărime multiple. 

Deci, există suficiente date timpurii pentru a sugera că are loc o transformare masivă. Ceea ce nu știm și ceea ce a devenit acum întrebarea critică este: Unde în această piață se va acumula valoarea?

În ultimul an, ne-am întâlnit cu zeci de fondatori și operatori de startup-uri din companii mari care se ocupă direct de IA generativă. Noi am observat asta furnizorii de infrastructură sunt probabil cei mai mari câștigători de pe această piață până acum, captând majoritatea dolarilor care curg prin stivă. Firme de aplicații cresc foarte repede veniturile din top, dar adesea se confruntă cu reținerea, diferențierea produselor și marjele brute. Și majoritatea furnizorii de modele, deși sunt responsabile pentru însăși existența acestei piețe, nu au atins încă o scară comercială mare.

Cu alte cuvinte, companiile care creează cea mai mare valoare – adică antrenează modele AI generative și le aplică în aplicații noi – nu au capturat cea mai mare parte a acesteia. Este mult mai greu să prezici ce se va întâmpla în continuare. Dar credem că lucrul cheie de înțeles este ce părți ale stivei sunt cu adevărat diferențiate și apărate. Acest lucru va avea un impact major asupra structurii pieței (adică dezvoltarea companiei pe orizontală vs. verticală) și asupra factorilor care influențează valoarea pe termen lung (de exemplu, marjele și retenția). Până acum, ne-a fost greu să găsim defensibilitatea structurală oriunde în stivă, în afara șanțurilor tradiționale pentru ocupanții.

Suntem incredibil de optimiști în ceea ce privește inteligența artificială generativă și credem că va avea un impact masiv în industria software și nu numai. Scopul acestei postări este de a mapa dinamica pieței și de a începe să răspundă la întrebările mai ample despre modelele de afaceri AI generative.

Stack de tehnologie de nivel înalt: infrastructură, modele și aplicații

Pentru a înțelege cum se conturează piața AI generativă, trebuie mai întâi să definim cum arată stiva astăzi. Iată punctul nostru de vedere preliminar.

Stiva poate fi împărțită în trei straturi:

  • aplicatii care integrează modele AI generative într-un produs orientat spre utilizator, fie rulând propriile conducte de modele („aplicații end-to-end”), fie bazându-se pe un API terță parte
  • modele care alimentează produsele AI, puse la dispoziție fie ca API-uri proprietare, fie ca puncte de control open-source (care, la rândul lor, necesită o soluție de găzduire)
  • Infrastructură furnizori (adică platforme cloud și producători de hardware) care rulează sarcini de lucru de instruire și inferență pentru modele AI generative

Este important de reținut: aceasta nu este o hartă a pieței, ci un cadru pentru analizarea pieței. În fiecare categorie, am enumerat câteva exemple de furnizori cunoscuți. Nu am făcut nicio încercare de a fi cuprinzător sau de a enumera toate aplicațiile uimitoare AI generative care au fost lansate. De asemenea, nu vom aprofunda aici despre instrumentele MLops sau LLMops, care nu sunt încă foarte standardizate și vor fi abordate într-o postare viitoare.

Primul val de aplicații AI generative încep să ajungă la scară, dar se luptă cu reținerea și diferențierea

În ciclurile tehnologice anterioare, înțelepciunea convențională era că, pentru a construi o companie mare, independentă, trebuie să deții clientul final - indiferent dacă asta însemna consumatori individuali sau cumpărători B2B. Este tentant să credem că cele mai mari companii din IA generativă vor fi și aplicațiile utilizatorilor finali. Până acum, nu este clar că așa este.

Cu siguranță, creșterea aplicațiilor AI generative a fost uluitoare, propulsată de noutatea pură și de o multitudine de cazuri de utilizare. De fapt, cunoaștem cel puțin trei categorii de produse care au depășit deja 100 de milioane USD din venituri anuale: generarea de imagini, scrierea de copii și scrierea de coduri.

Cu toate acestea, creșterea singură nu este suficientă pentru a construi companii de software durabile. În mod critic, creșterea trebuie să fie profitabilă — în sensul că utilizatorii și clienții, odată ce se înscriu, generează profituri (marje brute mari) și rămân mult timp (retenție ridicată). În absența unei diferențieri tehnice puternice, aplicațiile B2B și B2C generează valoare clienților pe termen lung prin efecte de rețea, păstrând date sau construind fluxuri de lucru din ce în ce mai complexe.

În IA generativă, aceste presupuneri nu sunt neapărat adevărate. În cadrul companiilor de aplicații cu care am vorbit, există o gamă largă de marje brute - până la 90% în câteva cazuri, dar cel mai adesea până la 50-60%, determinate în mare parte de costul inferenței modelului. Creșterea din partea de sus a pâlniei a fost uimitoare, dar nu este clar dacă strategiile actuale de achiziție de clienți vor fi scalabile – vedem deja că eficacitatea achizițiilor plătite și reținerea încep să scadă. Multe aplicații sunt, de asemenea, relativ nediferențiate, deoarece se bazează pe modele similare subiacente AI și nu au descoperit efecte evidente de rețea sau date/fluxuri de lucru, care sunt greu de duplicat de către concurenți.

Așadar, nu este încă evident că vânzarea de aplicații pentru utilizatorii finali este singura, sau chiar cea mai bună, cale pentru construirea unei afaceri AI generative durabile. Marjele ar trebui să se îmbunătățească pe măsură ce concurența și eficiența modelelor lingvistice cresc (mai multe despre asta mai jos). Retenția ar trebui să crească pe măsură ce turiștii AI părăsesc piața. Și există un argument puternic de făcut că aplicațiile integrate vertical au un avantaj în ceea ce privește diferențierea. Dar mai sunt multe de dovedit.

Privind în perspectivă, unele dintre marile întrebări cu care se confruntă companiile de aplicații AI generative includ:

  • Integrare verticală („model + aplicație”). Utilizarea modelelor AI ca serviciu permite dezvoltatorilor de aplicații să repete rapid cu o echipă mică și să schimbe furnizorii de modele pe măsură ce tehnologia avansează. Pe de altă parte, unii dezvoltatori susțin că produsul is modelul și că antrenamentul de la zero este singura modalitate de a crea defensibilitate – adică prin reinstruire continuă pe datele de produs proprietare. Dar vine cu prețul unor cerințe de capital mult mai mari și a unei echipe de produse mai puțin agile.
  • Funcții de construcție vs. aplicații. Produsele AI generative iau o serie de forme diferite: aplicații desktop, aplicații mobile, pluginuri Figma/Photoshop, extensii Chrome, chiar și roboți Discord. Este ușor să integrați produse AI acolo unde utilizatorii lucrează deja, deoarece interfața de utilizare este în general doar o casetă de text. Care dintre acestea vor deveni companii de sine stătătoare – și care vor fi absorbite de operatorii tradiționali, precum Microsoft sau Google, care încorporează deja AI în liniile lor de produse?
  • Gestionarea prin ciclul hype. Nu este încă clar dacă abandonul este inerent în lotul actual de produse AI generative sau dacă este un artefact al unei piețe timpurii. Sau dacă creșterea interesului pentru IA generativă va scădea pe măsură ce hype-ul se diminuează. Aceste întrebări au implicații importante pentru companiile de aplicații, inclusiv când să apăsați pedala de accelerație pentru strângerea de fonduri; cât de agresiv să investești în achiziția de clienți; ce segmente de utilizatori să acorde prioritate; și când să se declare potrivirea produsului-piață.

Furnizorii de modele au inventat IA generativă, dar nu au atins o scară comercială largă

Ceea ce numim acum IA generativă nu ar exista fără munca strălucitoare de cercetare și inginerie făcută în locuri precum Google, OpenAI și Stability. Prin arhitecturi de model noi și eforturi eroice de a scala conductele de antrenament, cu toții beneficiem de capacitățile uimitoare ale modelelor de limbaj mari (LLM) actuale și ale modelelor de generare de imagini.

Cu toate acestea, veniturile asociate cu aceste companii sunt încă relativ mici în comparație cu utilizare și zgomot. În generarea de imagini, Stable Diffusion a cunoscut o creștere explozivă a comunității, susținută de un ecosistem de interfețe cu utilizatorul, oferte găzduite și metode de reglare fină. Dar Stability oferă gratuit punctele lor de control majore ca principiu de bază al afacerii lor. În modelele de limbaj natural, OpenAI domină cu GPT-3/3.5 și ChatGPT. Dar relativ puține aplicații ucigașe construite pe OpenAI există până acum, iar prețurile au existat deja scăpat o dată.

Acesta poate fi doar un fenomen temporar. Stability este o companie nouă care nu s-a concentrat încă pe monetizare. OpenAI are potențialul de a deveni o afacere masivă, câștigând o parte semnificativă din toate veniturile din categoria NLP pe măsură ce sunt create mai multe aplicații ucigașe - mai ales dacă integrarea în portofoliul de produse Microsoft merge lin. Având în vedere utilizarea uriașă a acestor modele, veniturile la scară largă ar putea să nu fie cu mult în urmă.

Dar există și forțe compensatorii. Modelele lansate ca sursă deschisă pot fi găzduite de oricine, inclusiv de companii externe care nu suportă costurile asociate cu formarea modelelor la scară largă (până la zeci sau sute de milioane de dolari). Și nu este clar dacă vreun model cu sursă închisă își poate menține avantajul pe termen nelimitat. De exemplu, începem să vedem că LLM-urile construite de companii precum Anthropic, Cohere și Character.ai se apropie de nivelurile de performanță OpenAI, instruite pe seturi de date similare (adică internetul) și cu arhitecturi de model similare. Exemplul Stable Diffusion sugerează că if modelele open source ating un nivel suficient de performanță și de suport comunității, atunci alternativelor proprietare le poate fi greu să concureze.

Poate cea mai clară concluzie pentru furnizorii de modele, până acum, este că comercializarea este probabil legată de găzduire. Cererea pentru API-uri proprietare (de exemplu, de la OpenAI) crește rapid. Serviciile de găzduire pentru modele open-source (de exemplu, Hugging Face și Replicate) apar ca niște hub-uri utile pentru a partaja și integra cu ușurință modele – și chiar au unele efecte indirecte de rețea între producătorii de modele și consumatori. Există, de asemenea, o ipoteză puternică că este posibilă monetizarea prin acorduri de reglare fină și găzduire cu clienții întreprinderi.

Dincolo de asta, totuși, există o serie de întrebări mari cu care se confruntă furnizorii de modele:

  • Comercializare. Există o credință comună că modelele AI vor converge în performanță în timp. Vorbind cu dezvoltatorii de aplicații, este clar că acest lucru nu s-a întâmplat încă, cu lideri puternici atât în ​​modelele de text, cât și de imagine. Avantajele lor nu se bazează pe arhitecturi unice de model, ci pe cerințe mari de capital, pe date de interacțiune cu produse brevetate și pe talentul AI limitat. Va servi acest lucru ca un avantaj durabil?
  • Risc de absolvire. Bazarea pe furnizorii de modele este o modalitate excelentă pentru companiile de aplicații de a începe și chiar de a-și dezvolta afacerile. Dar există un stimulent pentru ei să-și construiască și/sau să găzduiască propriile modele odată ce ajung la scară. Și mulți furnizori de modele au distribuții foarte distorsionate pentru clienți, câteva aplicații reprezentând majoritatea veniturilor. Ce se întâmplă dacă/când acești clienți trec la dezvoltarea internă a AI?
  • Sunt banii importanți? Promisiunea IA generativă este atât de mare – și, de asemenea, potențial atât de dăunătoare – încât mulți furnizori de modele s-au organizat ca corporații de beneficiu public (corp B), au emis acțiuni plafonate din profit sau au încorporat în alt mod binele public în mod explicit în misiunea lor. Acest lucru nu a împiedicat deloc eforturile lor de strângere de fonduri. Dar există o discuție rezonabilă de purtat cu privire la faptul dacă majoritatea furnizorilor de modele de fapt vrea pentru a capta valoare și dacă ar trebui.

Furnizorii de infrastructură ating totul și culeg recompensele

Aproape totul în IA generativă trece printr-un GPU (sau TPU) găzduit în cloud la un moment dat. Fie pentru furnizorii de modele/laboratoarele de cercetare care rulează sarcini de lucru de formare, companiile de găzduire care rulează inferențe/ajustări fine sau companiile de aplicații care fac o combinație a ambelor – flops sunt sângele vital al IA generativă. Pentru prima dată într-o perioadă foarte lungă de timp, progresul în cea mai disruptivă tehnologie de calcul este legat în mod masiv de calcul.

Ca rezultat, o mulțime de bani de pe piața generativă de inteligență artificială ajung în cele din urmă către companiile de infrastructură. Sa puna niste foarte Cifre aproximative din jurul acestuia: estimăm că, în medie, companiile de aplicații cheltuiesc aproximativ 20-40% din venituri pentru deducere și reglaj fin pe client. Aceasta este de obicei plătită fie direct furnizorilor de cloud pentru instanțe de calcul, fie furnizorilor de modele terți – care, la rândul lor, cheltuiesc aproximativ jumătate din veniturile lor pe infrastructura cloud. Deci, este rezonabil să presupunem că 10-20% din veniturile totale în IA generativă de astăzi merge la furnizorii de cloud.

În plus, startup-urile care își formează propriile modele au strâns miliarde de dolari în capital de risc - cea mai mare parte (până la 80-90% în primele runde) este de obicei cheltuită și cu furnizorii de cloud. Multe companii publice de tehnologie cheltuiesc sute de milioane pe an pentru formarea modelelor, fie cu furnizori externi de cloud, fie direct cu producătorii de hardware.

Acesta este ceea ce am numi, în termeni tehnici, „mulți bani” – mai ales pentru o piață în curs de dezvoltare. Cea mai mare parte este cheltuită la Big 3 nori: Amazon Web Services (AWS), Google Cloud Platform (GCP) și Microsoft Azure. Acești furnizori de cloud în mod colectiv cheltuiește mai mult decât $ 100 miliarde pe an în capex pentru a se asigura că au cele mai cuprinzătoare, fiabile și mai competitive platforme din punct de vedere al costurilor. În IA generativă, în special, aceștia beneficiază și de constrângerile de aprovizionare, deoarece au acces preferențial la hardware limitat (de exemplu, GPU-uri Nvidia A100 și H100).

Interesant, totuși, începem să vedem apariția unei concurențe credibile. Provocatori precum Oracle au făcut incursiuni cu cheltuieli mari de investiții și stimulente de vânzări. Și câteva startup-uri, precum Coreweave și Lambda Labs, au crescut rapid cu soluții care vizează în mod special dezvoltatorii de modele mari. Aceștia concurează în ceea ce privește costul, disponibilitatea și suportul personalizat. Ele expun, de asemenea, abstracții de resurse mai granulare (adică containere), în timp ce norii mari oferă doar instanțe VM din cauza limitelor de virtualizare GPU.

În culise, rulând marea majoritate a sarcinilor de lucru AI, este probabil cel mai mare câștigător în AI generativă de până acum: Nvidia. Compania a raportat 3.8 de dolari miliard din veniturile GPU din centrele de date în al treilea trimestru al anului său fiscal 2023, inclusiv o parte semnificativă pentru cazurile de utilizare generative ale AI. Și au construit șanțuri puternice în jurul acestei afaceri prin investiții de zeci de ani în arhitectura GPU, un ecosistem software robust și o utilizare profundă în comunitatea academică. O analiză recentă a descoperit că GPU-urile Nvidia sunt citate în lucrările de cercetare de 90 de ori mai mult decât cele mai mari startup-uri de cipuri AI la un loc.

Există și alte opțiuni hardware, inclusiv Google Tensor Processing Units (TPU); GPU-uri AMD Instinct; cipuri AWS Inferentia și Trainium; și acceleratoare AI de la startup-uri precum Cerebras, Sambanova și Graphcore. Intel, întârziat în joc, intră și pe piață cu cipurile Habana de vârf și cu GPU-urile Ponte Vecchio. Dar până acum, puține dintre aceste noi cipuri au ocupat o cotă semnificativă de piață. Cele două excepții de urmărit sunt Google, ale cărui TPU-uri au câștigat acțiune în comunitatea Stable Diffusion și în unele oferte mari GCP, și TSMC, despre care se crede că produce toate dintre cipurile enumerate aici, inclusiv GPU-urile Nvidia (Intel folosește un amestec de propriile fabrici și TSMC pentru a-și fabrica cipurile).

Infrastructura este, cu alte cuvinte, un strat profitabil, durabil și aparent apărat în stivă. Întrebările mari la care trebuie să răspundă pentru companiile de infrastructură includ:

  • Menținerea sarcinilor de lucru apatride. GPU-urile Nvidia sunt aceleași oriunde le închiriați. Majoritatea sarcinilor de lucru AI sunt apatride, în sensul că inferența modelului nu necesită baze de date atașate sau stocare (altul decât pentru greutățile modelului în sine). Aceasta înseamnă că sarcinile de lucru AI pot fi mai portabile pe cloud decât încărcăturile de lucru tradiționale ale aplicațiilor. Cum, în acest context, pot furnizorii de cloud să creeze lipiciitate și să împiedice clienții să treacă la cea mai ieftină opțiune?
  • Supraviețuirea sfârșitului deficitului de cipuri. Prețurile pentru furnizorii de cloud și pentru Nvidia în sine au fost susținute de rezervele limitate ale celor mai dorite GPU-uri. Un furnizor ne-a spus că prețul de listă pentru A100 a fost de fapt a crescut de la lansare, ceea ce este foarte neobișnuit pentru hardware-ul de calcul. Când această constrângere de aprovizionare este în cele din urmă eliminată, prin creșterea producției și/sau adoptarea de noi platforme hardware, cum va afecta acest lucru furnizorii de cloud?
  • Poate un nor provocator să pătrundă? Suntem puternici credincioși că nori verticali va prelua cota de piata de la Big 3 cu oferte mai specializate. Până acum, în AI, concurenții au creat o tracțiune semnificativă prin diferențierea tehnică moderată și sprijinul Nvidia - pentru care furnizorii de cloud actuali sunt atât cei mai mari clienți, cât și concurenți emergenti. Întrebarea pe termen lung este, va fi aceasta suficientă pentru a depăși avantajele de scară ale celor 3 mari?

Deci... unde se va acumula valoarea?

Desigur, nu știm încă. Dar pe baza datelor timpurii pe care le avem pentru IA generativă, combinată cu experiența noastră cu companiile AI/ML anterioare, intuiția noastră este următoarea. 

Astăzi, nu pare să existe niciun șanț sistemic în IA generativă. Ca o aproximare de ordinul întâi, aplicațiilor le lipsește o diferențiere puternică a produsului deoarece folosesc modele similare; modelele se confruntă cu diferențieri neclare pe termen lung, deoarece sunt antrenate pe seturi de date similare cu arhitecturi similare; Furnizorilor de cloud le lipsește o diferențiere tehnică profundă, deoarece rulează aceleași GPU-uri; și chiar și companiile de hardware își produc cipurile la aceleași fabrici.

Există, desigur, șanțurile standard: șanțuri de scară („Am sau pot strânge mai mulți bani decât tine!”), șanțuri pentru lanțul de aprovizionare („Eu am GPU-urile, tu nu ai!”), șanțurile ecosistemului („ Toată lumea folosește deja software-ul meu!”), șanțuri algoritmice („Suntem mai deștepți decât tine!”), șanțuri de distribuție („Am deja o echipă de vânzări și mai mulți clienți decât tine!”) și șanțuri ale conductei de date („I’ Am accesat mai mult internet decât tine!”). Dar niciunul dintre aceste șanțuri nu tinde să fie durabil pe termen lung. Și este prea devreme pentru a spune dacă efectele de rețea puternice și directe se instalează în orice strat al stivei.

Pe baza datelor disponibile, nu este clar dacă va exista o dinamică pe termen lung, în care câștigătorul ia totul în AI generativă.

Acest lucru este ciudat. Dar pentru noi, este o veste bună. Dimensiunea potențială a acestei piețe este greu de înțeles – undeva între ele tot software-ul și toate eforturile umane — așa că ne așteptăm la mulți, mulți jucători și o competiție sănătoasă la toate nivelurile stivei. De asemenea, ne așteptăm ca atât companiile orizontale, cât și cele verticale să reușească, cea mai bună abordare fiind dictată de piețele și utilizatorii finali. De exemplu, dacă diferențierea principală în produsul final este AI în sine, este probabil ca verticalizarea (adică cuplarea strânsă a aplicației orientate către utilizator la modelul de acasă) va câștiga. În timp ce dacă AI face parte dintr-un set mai mare de caracteristici cu coadă lungă, atunci este mai probabil să apară orizontalizarea. Desigur, ar trebui să vedem și construirea unor șanțuri mai tradiționale de-a lungul timpului - și s-ar putea chiar să vedem că noi tipuri de șanțuri se instalează.

Oricare ar fi cazul, un lucru despre care suntem siguri este că AI generativă schimbă jocul. Cu toții învățăm regulile în timp real, există o cantitate enormă de valoare care va fi deblocată, iar peisajul tehnologic va arăta mult, mult diferit ca rezultat. Și suntem aici pentru asta!

Toate imaginile din această postare au fost create folosind Midjourney.

Timestamp-ul:

Mai mult de la Andreessen Horowitz