Grundläggande modeller vid kanten - IBM Blog

Grundläggande modeller vid kanten – IBM Blog

Källnod: 2891323

Grundläggande modeller vid kanten – IBM Blog



Flygfoto över byggnaden

Grundläggande modeller (FM) markerar början på en ny era maskininlärning (ML) och artificiell intelligens (AI), vilket leder till snabbare utveckling av AI som kan anpassas till ett brett utbud av nedströmsuppgifter och finjusteras för en rad applikationer. 

Med den ökande betydelsen av att bearbeta data där arbete utförs, möjliggör servering av AI-modeller på företagskanten nästan realtidsförutsägelser, samtidigt som de följer datasuveränitet och integritetskrav. Genom att kombinera IBM watsonx data- och AI-plattformskapacitet för FM:er med edge computing, kan företag köra AI-arbetsbelastningar för FM-finjustering och slutledning vid den operativa kanten. Detta gör det möjligt för företag att skala AI-distributioner vid kanten, vilket minskar tiden och kostnaderna att implementera med snabbare svarstider.

Se till att kolla in alla avbetalningar i den här serien av blogginlägg om edge computing:

Vad är grundmodeller?

Grundläggande modeller (FM), som tränas på en bred uppsättning omärkta data i stor skala, driver toppmoderna tillämpningar för artificiell intelligens (AI). De kan anpassas till ett brett utbud av nedströmsuppgifter och finjusteras för en mängd olika applikationer. Moderna AI-modeller, som utför specifika uppgifter i en enda domän, ger vika för FM:er eftersom de lär sig mer allmänt och fungerar över domäner och problem. Som namnet antyder kan en FM vara grunden för många tillämpningar av AI-modellen.

FM:er tar itu med två viktiga utmaningar som har hindrat företag från att skala in AI. För det första producerar företag en enorm mängd omärkt data, varav endast en bråkdel är märkt för AI-modellutbildning. För det andra är denna märknings- och anteckningsuppgift extremt mänskligt intensiv, och kräver ofta flera hundra timmar av en ämnesexperts (SME) tid. Detta gör det oöverkomligt att skala över användningsfall eftersom det skulle kräva arméer av små och medelstora företag och dataexperter. Genom att inta enorma mängder omärkt data och använda självövervakade tekniker för modellträning, har FM:er tagit bort dessa flaskhalsar och öppnat vägen för storskalig adoption av AI i hela företaget. Dessa enorma mängder data som finns i alla företag väntar på att släppas lös för att skapa insikter.

Vad är stora språkmodeller?

Stora språkmodeller (LLM) är en klass av grundläggande modeller (FM) som består av lager av neurala nätverk som har tränats på dessa enorma mängder omärkt data. De använder självövervakade inlärningsalgoritmer för att utföra en mängd olika naturlig språkbearbetning (NLP) uppgifter på sätt som liknar hur människor använder språk (se figur 1).

Figur 1. Stora språkmodeller (LLM) har tagit AI-området med storm.
Figur 1. Stora språkmodeller (LLM) har tagit AI-området med storm.

Skala och accelerera effekten av AI

Det finns flera steg för att bygga och distribuera en grundmodell (FM). Dessa inkluderar dataintag, dataurval, dataförbearbetning, FM-förträning, modellinställning till en eller flera nedströmsuppgifter, slutledningsservering och data- och AI-modellstyrning och livscykelhantering – allt detta kan beskrivas som FMOps.

För att hjälpa till med allt detta erbjuder IBM företag de nödvändiga verktygen och kapaciteterna för att utnyttja kraften i dessa FM:er via IBM watsonx, en företagsförberedd AI- och dataplattform designad för att multiplicera effekten av AI i ett företag. IBM watsonx består av följande:

  1. IBM watsonx.ai ger nytt generativ AI funktioner – drivna av FM:er och traditionell maskininlärning (ML) – till en kraftfull studio som spänner över AI-livscykeln.
  2. IBM watsonx.data är ett ändamålsenligt datalager byggt på en öppen sjöbyggnadsarkitektur för att skala AI-arbetsbelastningar för all din data, var som helst.
  3. IBM watsonx.governance är en heltäckande automatiserad AI-livscykelstyrningsverktygssats som är byggd för att möjliggöra ansvarsfulla, transparenta och förklarande AI-arbetsflöden.

En annan nyckelvektor är den ökande betydelsen av datoranvändning i företagskanten, såsom industriplatser, tillverkningsgolv, butiker, telekomsidor, etc. Mer specifikt möjliggör AI i företagskanten bearbetning av data där arbete utförs för nästan realtidsanalys. Företagsfördelen är där stora mängder företagsdata genereras och där AI kan ge värdefulla, snabba och handlingsbara affärsinsikter.

Att betjäna AI-modeller i utkanten möjliggör förutsägelser i nästan realtid samtidigt som man följer datasuveränitet och integritetskrav. Detta minskar avsevärt den latens som ofta förknippas med insamling, överföring, transformation och bearbetning av inspektionsdata. Genom att arbeta på kanten kan vi skydda känslig företagsdata och minska kostnaderna för dataöverföring med snabbare svarstider.

Att skala AI-distributioner vid kanten är dock inte en lätt uppgift bland data (heterogenitet, volym och regulatoriska) och begränsade resurser (dator, nätverksanslutning, lagring och till och med IT-kunskaper) relaterade utmaningar. Dessa kan i stora drag beskrivas i två kategorier:

  • Tid/kostnad att implementera: Varje distribution består av flera lager av hårdvara och mjukvara som måste installeras, konfigureras och testas innan distributionen. Idag kan en servicetekniker ta upp till en vecka eller två för installation på varje plats, kraftigt begränsar hur snabbt och kostnadseffektivt företag kan skala upp implementeringar i hela sin organisation.                                  
  • Dag 2 ledning: Det stora antalet distribuerade kanter och den geografiska platsen för varje distribution kan ofta göra det oöverkomligt dyrt att tillhandahålla lokal IT-support på varje plats för att övervaka, underhålla och uppdatera dessa distributioner.

Edge AI-distributioner

IBM utvecklade en edge-arkitektur som tar itu med dessa utmaningar genom att ta med en integrerad hårdvara/mjukvara (HW/SW) apparatmodell till edge AI-distributioner. Den består av flera nyckelparadigm som underlättar skalbarheten av AI-distributioner:

  • Policybaserad, noll-touch-provisionering av hela programvarustacken.
  • Kontinuerlig övervakning av kantsystemets hälsa
  • Förmåga att hantera och driva program-/säkerhets-/konfigurationsuppdateringar till ett flertal kantplatser – allt från en central molnbaserad plats för dag-2-hantering.

En distribuerad hub-and-spoke-arkitektur kan användas för att skala företags-AI-distributioner vid kanten, där ett centralt moln eller företagsdatacenter fungerar som ett nav och edge-in-a-box-enheten fungerar som en eker på en kantplats. Denna nav- och ekermodell, som sträcker sig över hybridmoln- och kantmiljöer, illustrerar bäst den balans som krävs för att optimalt utnyttja resurser som behövs för FM-drift (se figur 2).

Figur 2. En hub-and-spoke-distributionskonfiguration för företags-AI på kantplatser.
Figur 2. En hub-and-spoke-distributionskonfiguration för företags-AI på kantplatser.

Förträning av dessa basmodeller för stora språk (LLM) och andra typer av grundmodeller som använder självövervakade tekniker på stora omärkta datauppsättningar kräver ofta betydande beräkningsresurser (GPU) och utförs bäst i ett nav. De praktiskt taget obegränsade beräkningsresurserna och stora datahögarna som ofta lagras i molnet möjliggör förträning av stora parametermodeller och kontinuerlig förbättring av noggrannheten hos dessa basmodeller.

Å andra sidan kan tuning av dessa bas-FM:er för nedströmsuppgifter – som bara kräver några tiotals eller hundratals märkta dataprover och slutledningsservering – utföras med endast ett fåtal GPU:er i företagskanten. Detta gör det möjligt för känslig märkt data (eller företagets kronjuveldata) för att säkert hålla sig inom företagets operativa miljö samtidigt som det minskar kostnaderna för dataöverföring.

Genom att använda en fullstack-metod för att distribuera applikationer till kanten kan en datavetare utföra finjustering, testning och driftsättning av modellerna. Detta kan åstadkommas i en enda miljö samtidigt som utvecklingslivscykeln för att servera nya AI-modeller för slutanvändarna krymper. Plattformar som Red Hat OpenShift Data Science (RHODS) och den nyligen tillkännagivna Red Hat OpenShift AI tillhandahåller verktyg för att snabbt utveckla och distribuera produktionsklara AI-modeller i distribuerat moln och kantmiljöer.

Slutligen, att servera den finjusterade AI-modellen på företagskanten minskar avsevärt latensen som ofta förknippas med förvärv, överföring, transformation och bearbetning av data. Att frikoppla förträningen i molnet från finjustering och slutledning på kanten sänker den totala driftskostnaden genom att minska den tid som krävs och kostnaderna för dataöverföring som är förknippade med en slutledningsuppgift (se figur 3).

Figur 3. Värdeförslag för FM-finjustering och slutledning vid operationskanten med en kant-i-låda. Ett exemplariskt användningsfall med en civilingenjör som distribuerar en sådan FM-modell för insikter om defektdetektering i nästan realtid med hjälp av drönarbilder.
Figur 3. Värdeförslag för FM-finjustering och slutledning vid operationskanten med en kant-i-låda. Ett exemplariskt användningsfall med en civilingenjör som distribuerar en sådan FM-modell för insikter om defektdetektering i nästan realtid med hjälp av drönarbilder.

För att demonstrera detta värdeförslag från början till slut finjusterades en exemplarisk vision-transformatorbaserad grundmodell för civil infrastruktur (förutbildad med offentliga och anpassade branschspecifika datauppsättningar) och distribuerades för slutledning på en kant med tre noder (ekrade) klunga. Programvaran inkluderade Red Hat OpenShift Container Platform och Red Hat OpenShift Data Science. Detta kantkluster var också kopplat till en instans av Red Hat Advanced Cluster Management for Kubernetes (RHACM) nav som kördes i molnet.

Zero-touch provisionering

Policybaserad, noll-touch provisionering gjordes med Red Hat Advanced Cluster Management for Kubernetes (RHACM) via policyer och placeringstaggar, som binder specifika kantkluster till en uppsättning programvarukomponenter och konfigurationer. Dessa programvarukomponenter – som sträcker sig över hela stacken och täcker dator, lagring, nätverk och AI-arbetsbelastningen – installerades med olika OpenShift-operatörer, tillhandahållande av erforderliga applikationstjänster och S3 Bucket (lagring).

Den förutbildade grundmodellen (FM) för civil infrastruktur finjusterades via en Jupyter Notebook inom Red Hat OpenShift Data Science (RHODS) med hjälp av märkta data för att klassificera sex typer av defekter som hittats på betongbroar. Inferensservering av denna finjusterade FM demonstrerades också med hjälp av en Triton-server. Dessutom gjordes övervakning av tillståndet för detta kantsystem möjlig genom att aggregera observerbarhetsmått från hårdvaru- och mjukvarukomponenterna via Prometheus till den centrala RHACM-instrumentbrädan i molnet. Civila infrastrukturföretag kan distribuera dessa FM:er vid sina kantplatser och använda drönarbilder för att upptäcka defekter i nästan realtid – vilket påskyndar tiden till insikt och minskar kostnaderna för att flytta stora volymer högupplöst data till och från molnet.

Sammanfattning

Kombinera IBM watsonx data- och AI-plattformsfunktioner för grundmodeller (FM) med en edge-in-a-box-apparat gör att företag kan köra AI-arbetsbelastningar för FM-finjustering och slutledning vid den operativa kanten. Denna apparat kan hantera komplexa användningsfall direkt, och den bygger nav-och-eker-ramverket för centraliserad hantering, automatisering och självbetjäning. Edge FM-distributioner kan reduceras från veckor till timmar med upprepad framgång, högre motståndskraft och säkerhet.

Läs mer om grundmodeller

Se till att kolla in alla avbetalningar i den här serien av blogginlägg om edge computing:

Kategorier

Mer från Cloud

Temenos tillför innovativa betalningsmöjligheter till IBM Cloud för att hjälpa banker att transformera

3 min läs - Betalningsekosystemet befinner sig i en brytpunkt för omvandling, och vi tror att det är dags för förändring nu. När banker ser på att modernisera sina betalningsresor har Temenos Payments Hub blivit den första dedikerade betalningslösningen för att leverera innovativa betalningsmöjligheter på IBM Cloud for Financial Services® – en branschspecifik plattform utformad för att påskynda finansiella institutioners digitala transformationer med säkerhet på framkant. Detta är det senaste initiativet i vår långa historia som tillsammans hjälper kunder att förändras. Med Temenos Payments...

Nästa våg av betalningsmodernisering: Minimera komplexiteten för att höja kundupplevelsen

3 min läs - Betalningsekosystemet befinner sig i en brytpunkt för transformation, särskilt som vi ser uppkomsten av störande digitala aktörer som introducerar nya betalningsmetoder, såsom kryptovaluta och centralbanks digitala valutor (CDBC). Med fler valmöjligheter för kunderna blir det mer konkurrenskraftigt för traditionella banker att ta del av plånboken. Detta är bara ett av många exempel som visar hur betalningsutrymmet har utvecklats. Samtidigt ser vi alltmer att tillsynsmyndigheter övervakar branschens...

IBM Connected Trade Platform hjälper till att driva digitaliseringen av handel och leveranskedjefinansiering

4 min läs - Idag ser vi betydande digitala störningar i handeln med finansiering av handel och försörjningskedja, som till stor del påverkas av globala händelser och geopolitik, ändrade regelverk, krav på efterlevnad och kontroll, framsteg inom teknik och innovation, och tillgång till kapital. När man undersöker dessa störande ämnen närmare är det tydligt att det finns en mängd olika faktorer som kan påverka global handel och finansiering av leveranskedjan. Dessa kan variera hela vägen från förhöjd inflation (vilket har potential att orsaka marginal...

Spela in SSH-sessioner på RHEL säkert i ett privat VPC-nätverk

5 min läs - I det här blogginlägget kommer du att lära dig hur du spelar in SSH-sessioner på en Red Hat Enterprise Linux (RHEL) VSI i ett privat VPC-nätverk med hjälp av inbyggda paket. Det privata VPC-nätverket tillhandahålls genom Terraform och RHEL-paketen installeras med Ansible-automatisering. Dessutom kommer du att lära dig hur du ställer in en högtillgänglig bastionvärd. Vad är sessionsinspelning och varför krävs det? En bastion-värd och en hoppserver är båda säkerhetsmekanismer som används i nätverk och...

Tidsstämpel:

Mer från IBM