Waarom alleen gebruikte LLM's niet kunnen voldoen aan de voorspellende behoeften van uw bedrijf - KDnuggets

Waarom alleen gebruikte LLM's niet kunnen voldoen aan de voorspellende behoeften van uw bedrijf - KDnuggets

Bronknooppunt: 3089436

Gesponsorde content

ChatGPT en soortgelijke tools gebaseerd op grote taalmodellen (LLM's) zijn geweldig. Maar het zijn geen universele hulpmiddelen.

Het is net als het kiezen van andere hulpmiddelen voor bouwen en creëren. U moet de juiste kiezen voor de taak. Je zou niet proberen een bout vast te draaien met een hamer of een hamburgerpasteitje om te draaien met een garde. Het proces zou lastig zijn en resulteren in een rommelige mislukking.

Taalmodellen zoals LLM's vormen slechts een deel van de bredere machine learning-toolkit, die zowel generatieve AI als voorspellende AI omvat. Het selecteren van het juiste type machine learning-model is cruciaal om aan te sluiten bij de vereisten van uw taak.

Laten we dieper ingaan op de vraag waarom LLM's beter geschikt zijn om u te helpen bij het opstellen van tekst of om te brainstormen over cadeau-ideeën dan om de meest kritische voorspellende modelleringstaken van uw bedrijf aan te pakken. Er is nog steeds een cruciale rol weggelegd voor de ‘traditionele’ machine learning-modellen die aan LLM’s voorafgingen en die herhaaldelijk hun waarde hebben bewezen in bedrijven. We zullen ook een baanbrekende aanpak onderzoeken om deze tools samen te gebruiken – een opwindende ontwikkeling die wij bij Pecan noemen Voorspellende GenAI

LLM's zijn ontworpen voor woorden, niet voor cijfers

 
Bij machinaal leren worden verschillende wiskundige methoden gebruikt om zogenaamde ‘trainingsgegevens’ te analyseren: een eerste dataset die het probleem vertegenwoordigt dat een data-analist of datawetenschapper hoopt op te lossen.

Het belang van trainingsgegevens kan niet genoeg worden benadrukt. Het bevat de patronen en relaties die een machine learning-model zal “leren” om resultaten te voorspellen wanneer het later nieuwe, ongeziene gegevens krijgt.

Dus, wat is specifiek een LLM? Grote taalmodellen, of LLM's, vallen onder de paraplu van machinaal leren. Ze komen voort uit deep learning en hun structuur is specifiek ontwikkeld voor natuurlijke taalverwerking.

Je zou kunnen zeggen dat ze zijn gebouwd op een fundament van woorden. Hun doel is simpelweg om te voorspellen welk woord het volgende zal zijn in een reeks woorden. De autocorrectiefunctie van iPhones in iOS 17 gebruikt nu bijvoorbeeld een LLM om beter te voorspellen welk woord u waarschijnlijk als volgende wilt typen.

 
Sterke punten van LLM's en traditioneel machinaal leren
 

Stel je nu voor dat je een machine learning-model bent. (Heb geduld, we weten dat het lastig is.) Je bent getraind om woorden te voorspellen. Je hebt miljoenen woorden uit een breed scala aan bronnen over allerlei onderwerpen gelezen en bestudeerd. Je mentoren (ook wel ontwikkelaars genoemd) hebben je geholpen de beste manieren te leren om woorden te voorspellen en nieuwe tekst te maken die past bij het verzoek van een gebruiker. 

Maar hier is een wending. Een gebruiker geeft u nu een enorme spreadsheet met klant- en transactiegegevens, met miljoenen rijen getallen, en vraagt ​​u getallen te voorspellen die verband houden met deze bestaande gegevens.

Hoe denk je dat jouw voorspellingen zouden uitpakken? Ten eerste zou je waarschijnlijk geïrriteerd zijn dat deze taak niet overeenkomt met datgene waarvoor je zo hard hebt gewerkt om te leren. (Gelukkig hebben LLM's, voor zover wij weten, nog geen gevoelens.) Belangrijker nog is dat er van je wordt gevraagd een taak uit te voeren die niet overeenkomt met wat je hebt geleerd. En je zult waarschijnlijk niet zo goed presteren.

De kloof tussen training en taak verklaart mede waarom LLM's niet goed geschikt zijn voor voorspellende taken met numerieke, tabellarische gegevens – het primaire gegevensformaat dat de meeste bedrijven verzamelen. In plaats daarvan is een machine learning-model dat specifiek is ontworpen en afgestemd op het verwerken van dit soort gegevens effectiever. Het is hier letterlijk voor getraind.

De efficiëntie- en optimalisatie-uitdagingen van LLM's

 
Traditionele machine learning-methoden passen niet alleen beter bij numerieke gegevens, maar zijn ook veel efficiënter en gemakkelijker te optimaliseren voor betere prestaties dan LLM's. 

Laten we teruggaan naar uw ervaring met het nabootsen van een LLM. Het lezen van al die woorden en het bestuderen van hun stijl en volgorde klinkt als een hoop werk, toch? Het zou veel moeite kosten om al die informatie te internaliseren. 

Op dezelfde manier kan de complexe training van LLM's resulteren in modellen met miljarden parameters. Die complexiteit zorgt ervoor dat deze modellen de lastige nuances van de menselijke taal kunnen begrijpen en erop kunnen reageren. Zware training brengt echter zware rekenvereisten met zich mee wanneer LLM's antwoorden genereren. Numeriek georiënteerde ‘traditionele’ machine learning-algoritmen, zoals beslissingsbomen of neurale netwerken, zullen waarschijnlijk veel minder computerbronnen nodig hebben. En dit is geen geval van ‘groter is beter’. Zelfs als LLM's numerieke gegevens zouden kunnen verwerken, zou dit verschil betekenen dat traditionele methoden voor machinaal leren nog steeds sneller, efficiënter, ecologisch duurzamer en kosteneffectiever zouden zijn.

Heeft u ChatGPT bovendien ooit gevraagd hoe het een bepaald antwoord kon geven? Het antwoord zal waarschijnlijk een beetje vaag zijn:

Ik genereer antwoorden op basis van een combinatie van gelicentieerde gegevens, gegevens gemaakt door menselijke trainers en openbaar beschikbare gegevens. Mijn training omvatte ook grootschalige datasets verkregen uit verschillende bronnen, waaronder boeken, websites en andere teksten, om een ​​breed begrip van menselijke taal te ontwikkelen. Het trainingsproces omvat het uitvoeren van berekeningen op duizenden GPU's gedurende weken of maanden, maar exacte details en tijdschalen zijn eigendom van OpenAI.

Hoeveel van de ‘kennis’ die in die reactie tot uiting kwam, kwam van de menselijke trainers versus de publieke gegevens versus boeken? Zelfs ChatGPT zelf weet het niet zeker: “De relatieve verhoudingen van deze bronnen zijn onbekend, en ik heb geen gedetailleerd inzicht in welke specifieke documenten deel uitmaakten van mijn trainingsset.”

Het is een beetje zenuwslopend om te zien dat ChatGPT zulke zelfverzekerde antwoorden op uw vragen geeft, maar de antwoorden niet naar specifieke bronnen kan herleiden. De beperkte interpreteerbaarheid en uitlegbaarheid van LLM's brengt ook uitdagingen met zich mee bij het optimaliseren ervan voor specifieke zakelijke behoeften. Het kan moeilijk zijn om de reden achter hun informatie of voorspellingen te begrijpen. Om de zaken nog ingewikkelder te maken, kampen bepaalde bedrijven met eisen van regelgeving die inhouden dat ze de factoren moeten kunnen verklaren die van invloed zijn op de voorspellingen van een model. Al met al laten deze uitdagingen zien dat traditionele machine learning-modellen – over het algemeen beter interpreteerbaar en verklaarbaar – waarschijnlijk beter geschikt zijn voor zakelijke toepassingen.

De juiste plek voor LLM's in de voorspellende toolkit van bedrijven

 
Moeten we LLM’s dus gewoon aan hun woordgerelateerde taken overlaten en ze vergeten voor voorspellende gebruiksscenario’s? Het lijkt nu misschien alsof ze toch niet kunnen helpen met het voorspellen van klantverloop of klantlevensduurwaarde.

Het punt is: hoewel het zeggen van ‘traditionele machine learning-modellen’ ervoor zorgt dat deze technieken algemeen worden begrepen en gemakkelijk te gebruiken zijn, weten we uit onze ervaring bij Pecan dat bedrijven nog steeds grotendeels moeite hebben om zelfs deze meer bekende vormen van AI over te nemen. 

 
42% van de bedrijven in Noord-Amerika is helemaal nog niet begonnen met het gebruik van AI of begint nog maar net hun mogelijkheden te onderzoeken.
 

Uit recent onderzoek van Workday blijkt dat 42% van de bedrijven in Noord-Amerika nog niet is begonnen met het gebruik van AI of zich nog maar in de beginfase bevindt van het verkennen van hun mogelijkheden. En het is al meer dan tien jaar geleden dat machine learning-tools toegankelijker werden voor bedrijven. Ze hebben de tijd gehad en er zijn verschillende hulpmiddelen beschikbaar. 

Om de een of andere reden zijn succesvolle AI-implementaties verrassend zeldzaam geweest, ondanks de enorme buzz rond datawetenschap en AI – en hun erkende potentieel voor aanzienlijke zakelijke impact. Er ontbreekt een belangrijk mechanisme om de kloof te overbruggen tussen de beloften van AI en het vermogen om deze productief te implementeren.

En dat is precies waar wij geloven dat LLM's nu een cruciale brugrol kunnen spelen. LLM's kunnen zakelijke gebruikers helpen de kloof te overbruggen tussen het identificeren van een bedrijfsprobleem dat moet worden opgelost en het ontwikkelen van een voorspellend model.

Nu LLM's in beeld zijn, kunnen bedrijfs- en datateams die niet over de mogelijkheid of capaciteit beschikken om machine learning-modellen met de hand te coderen, hun behoeften nu beter in modellen vertalen. Ze kunnen ‘hun woorden gebruiken’, zoals ouders graag zeggen, om het modelleringsproces op gang te brengen. 

LLM's combineren met machine learning-technieken die zijn gebouwd om uit te blinken op het gebied van bedrijfsgegevens

 
Die mogelijkheid is nu beschikbaar in Pecan's Predictive GenAI, die de sterke punten van LLM's combineert met ons toch al zeer verfijnde en geautomatiseerde machine learning-platform. Onze door LLM aangedreven Predictive Chat verzamelt input van een zakelijke gebruiker om de definitie en ontwikkeling van een voorspellende vraag te begeleiden: het specifieke probleem dat de gebruiker met een model wil oplossen. 

Vervolgens genereert ons platform met behulp van GenAI een Predictive Notebook om de volgende stap naar modellering nog eenvoudiger te maken. Ook hier bevat het notebook, op basis van LLM-mogelijkheden, vooraf ingevulde SQL-query's om de trainingsgegevens voor het voorspellende model te selecteren. Pecan's geautomatiseerde gegevensvoorbereiding, feature-engineering, modelbouw en implementatiemogelijkheden kunnen de rest van het proces in recordtijd uitvoeren, sneller dan welke andere oplossing voor voorspellende modellering dan ook.

Kortom, Pecan's Predictive GenAI gebruikt de ongeëvenaarde taalvaardigheden van LLM's om ons best-in-class voorspellende modelleringsplatform veel toegankelijker en vriendelijker te maken voor zakelijke gebruikers. We zijn blij om te zien hoe deze aanpak veel meer bedrijven zal helpen succesvol te worden met AI.

Dus, terwijl LLM's alleen zijn niet goed geschikt om aan al uw voorspellende behoeften te voldoen, ze kunnen een krachtige rol spelen bij het vooruit helpen van uw AI-projecten. Door uw gebruiksscenario te interpreteren en u een voorsprong te geven met automatisch gegenereerde SQL-code, loopt Pecan's Predictive GenAI voorop bij het verenigen van deze technologieën. Jij kan Bekijk het nu met een gratis proefperiode.
 
 

Tijdstempel:

Meer van KDnuggets