Fundamentele modellen aan de rand - IBM Blog

Fundamentele modellen aan de rand – IBM Blog

Bronknooppunt: 2891323

Fundamentele modellen aan de rand – IBM Blog



Luchtfoto van gebouw

Fundamentele modellen (FM's) markeren het begin van een nieuw tijdperk in machinaal leren (ML) en kunstmatige intelligentie (AI), wat leidt tot een snellere ontwikkeling van AI die kan worden aangepast aan een breed scala aan downstream-taken en kan worden verfijnd voor een scala aan toepassingen. 

Nu het steeds belangrijker wordt om gegevens te verwerken op de plek waar er wordt gewerkt, maakt het bedienen van AI-modellen aan de rand van de onderneming vrijwel realtime voorspellingen mogelijk, terwijl tegelijkertijd wordt voldaan aan de eisen op het gebied van gegevenssoevereiniteit en privacy. Door het combineren van de IBM watsonx data- en AI-platformmogelijkheden voor FM's met edge computing kunnen bedrijven AI-workloads uitvoeren voor FM-finetuning en -inferentie aan de operationele edge. Hierdoor kunnen ondernemingen AI-implementaties aan de edge schalen, waardoor de implementatietijd en -kosten worden verkort en de responstijden sneller zijn.

Zorg ervoor dat je alle afleveringen in deze reeks blogposts over edge computing bekijkt:

Wat zijn fundamentele modellen?

Fundamentele modellen (FM's), die op grote schaal worden getraind op een brede reeks ongelabelde gegevens, zijn de drijvende kracht achter de modernste toepassingen van kunstmatige intelligentie (AI). Ze kunnen worden aangepast aan een breed scala aan downstream-taken en worden afgestemd op een scala aan toepassingen. Moderne AI-modellen, die specifieke taken in één domein uitvoeren, maken plaats voor FM’s omdat ze algemener leren en over domeinen en problemen heen werken. Zoals de naam al doet vermoeden, kan een FM de basis vormen voor veel toepassingen van het AI-model.

FM’s pakken twee belangrijke uitdagingen aan die bedrijven ervan weerhouden de adoptie van AI op te schalen. Ten eerste produceren bedrijven een enorme hoeveelheid ongelabelde gegevens, waarvan slechts een fractie is gelabeld voor AI-modeltraining. Ten tweede is deze label- en annotatietaak uiterst mensintensief en vergt vaak enkele honderden uren van de tijd van een vakdeskundige. Dit maakt het onbetaalbaar om over verschillende gebruiksscenario’s heen te schalen, omdat hiervoor legers van MKB-bedrijven en data-experts nodig zijn. Door enorme hoeveelheden ongelabelde gegevens te verwerken en zelfbeheerde technieken te gebruiken voor modeltraining, hebben FM's deze knelpunten weggenomen en de weg vrijgemaakt voor grootschalige adoptie van AI binnen de hele onderneming. Deze enorme hoeveelheden gegevens die in elk bedrijf aanwezig zijn, wachten erop om te worden vrijgegeven om inzichten te genereren.

Wat zijn grote taalmodellen?

Grote taalmodellen (LLM's) zijn een klasse fundamentele modellen (FM) die bestaan ​​uit lagen van neurale netwerken die zijn getraind op deze enorme hoeveelheden ongelabelde gegevens. Ze gebruiken zelfgestuurde leeralgoritmen om verschillende taken uit te voeren natuurlijke taalverwerking (NLP) taken uitvoeren op manieren die vergelijkbaar zijn met de manier waarop mensen taal gebruiken (zie figuur 1).

Figuur 1. Grote taalmodellen (LLM's) hebben het veld van AI stormenderhand veroverd.
Figuur 1. Grote taalmodellen (LLM's) hebben het veld van AI stormenderhand veroverd.

Schaal en versnel de impact van AI

Er zijn verschillende stappen voor het bouwen en implementeren van een fundamenteel model (FM). Deze omvatten data-inname, dataselectie, datavoorverwerking, FM-pre-training, modelafstemming op een of meer downstream-taken, inferentieservice, en data- en AI-modelbeheer en levenscyclusbeheer – die allemaal kunnen worden omschreven als FMOps.

Om bij dit alles te helpen, biedt IBM bedrijven de nodige tools en mogelijkheden om de kracht van deze FM's te benutten IBM watsonx, een bedrijfsklaar AI- en dataplatform dat is ontworpen om de impact van AI in een onderneming te vergroten. IBM Watsonx bestaat uit het volgende:

  1. IBM watsonx.ai brengt nieuw generatieve AI mogelijkheden – mogelijk gemaakt door FM's en traditionele machine learning (ML) – in een krachtige studio die de AI-levenscyclus bestrijkt.
  2. IBM watsonx.data is een geschikte dataopslag gebouwd op een open lakehouse-architectuur om de AI-workloads voor al uw gegevens, waar dan ook, te schalen.
  3. IBM watsonx.governance is een end-to-end geautomatiseerde AI-levenscyclusbeheertoolkit die is gebouwd om verantwoorde, transparante en verklaarbare AI-workflows mogelijk te maken.

Een andere belangrijke vector is het toenemende belang van computergebruik aan de rand van de onderneming, zoals industriële locaties, productievloeren, winkels, telecom-randlocaties, enz. Meer specifiek maakt AI aan de rand van de onderneming de verwerking van gegevens mogelijk waar werk voor wordt uitgevoerd. bijna realtime analyse. De enterprise edge is waar enorme hoeveelheden bedrijfsgegevens worden gegenereerd en waar AI waardevolle, actuele en bruikbare zakelijke inzichten kan bieden.

Het bedienen van AI-modellen aan de edge maakt vrijwel realtime voorspellingen mogelijk, terwijl wordt voldaan aan de eisen op het gebied van datasoevereiniteit en privacy. Dit vermindert aanzienlijk de latentie die vaak gepaard gaat met het verwerven, verzenden, transformeren en verwerken van inspectiegegevens. Door aan de edge te werken, kunnen we gevoelige bedrijfsgegevens beschermen en de kosten voor gegevensoverdracht verlagen met snellere responstijden.

Het opschalen van AI-implementaties aan de edge is echter geen gemakkelijke taak te midden van uitdagingen die verband houden met data (heterogeniteit, volume en regelgeving) en beperkte middelen (compute, netwerkconnectiviteit, opslag en zelfs IT-vaardigheden). Deze kunnen grofweg in twee categorieën worden beschreven:

  • Tijd/kosten om te implementeren: Elke implementatie bestaat uit verschillende lagen hardware en software die voorafgaand aan de implementatie moeten worden geïnstalleerd, geconfigureerd en getest. Tegenwoordig kan een serviceprofessional wel een week of twee nodig hebben voor de installatie op elke locatie, Dit beperkt ernstig hoe snel en kosteneffectief ondernemingen implementaties binnen hun organisatie kunnen opschalen.                                  
  • Beheer van dag 2: Het enorme aantal geïmplementeerde randen en de geografische locatie van elke implementatie kunnen het vaak onbetaalbaar maken om op elke locatie lokale IT-ondersteuning te bieden om deze implementaties te monitoren, te onderhouden en bij te werken.

Edge AI-implementaties

IBM heeft een edge-architectuur ontwikkeld die deze uitdagingen aanpakt door een geïntegreerd hardware/software (HW/SW)-apparaatmodel naar edge-AI-implementaties te brengen. Het bestaat uit verschillende sleutelparadigma’s die de schaalbaarheid van AI-implementaties ondersteunen:

  • Op beleid gebaseerde, zero-touch provisioning van de volledige softwarestack.
  • Continue monitoring van de gezondheid van het edge-systeem
  • Mogelijkheden om software-/beveiligings-/configuratie-updates te beheren en naar talloze edge-locaties te pushen, allemaal vanuit een centrale cloudgebaseerde locatie voor dagelijks beheer.

Een gedistribueerde hub-and-spoke-architectuur kan worden gebruikt om AI-implementaties van ondernemingen aan de rand te schalen, waarbij een centrale cloud of een bedrijfsdatacenter als hub fungeert en het edge-in-a-box-apparaat als spaak op een edge-locatie fungeert.. Dit hub-and-spoke-model, dat zich uitstrekt over hybride cloud- en edge-omgevingen, illustreert het beste de balans die nodig is om de middelen die nodig zijn voor FM-activiteiten optimaal te benutten (zie figuur 2).

Figuur 2. Een hub-and-spoke-implementatieconfiguratie voor zakelijke AI op edge-locaties.
Figuur 2. Een hub-and-spoke-implementatieconfiguratie voor zakelijke AI op edge-locaties.

Voortraining van deze basismodellen voor grote talen (LLM's) en andere soorten basismodellen met behulp van zelfbeheerde technieken op enorme ongelabelde datasets vereist vaak aanzienlijke rekenbronnen (GPU) en kan het beste worden uitgevoerd op een hub. De vrijwel onbeperkte computerbronnen en grote datastapels die vaak in de cloud worden opgeslagen, maken het vooraf trainen van grote parametermodellen en voortdurende verbetering van de nauwkeurigheid van deze basismodellen mogelijk.

Aan de andere kant kan het afstemmen van deze basis-FM's op downstream-taken (waarvoor slechts enkele tientallen of honderden gelabelde datamonsters en het leveren van gevolgtrekkingen nodig zijn) worden bereikt met slechts een paar GPU's aan de rand van de onderneming. Hierdoor kunnen gevoelige gelabelde gegevens (of bedrijfskroonjuweelgegevens) veilig binnen de operationele omgeving van de onderneming blijven, terwijl ook de kosten voor gegevensoverdracht worden verlaagd.

Met behulp van een full-stack-aanpak voor het implementeren van applicaties naar de edge, kan een datawetenschapper de modellen verfijnen, testen en implementeren. Dit kan in één enkele omgeving worden bereikt, terwijl de ontwikkelingslevenscyclus voor het aanbieden van nieuwe AI-modellen aan de eindgebruikers wordt verkort. Platforms zoals Red Hat OpenShift Data Science (RHODS) en de onlangs aangekondigde Red Hat OpenShift AI bieden tools om snel productieklare AI-modellen te ontwikkelen en in te zetten. gedistribueerde cloud en edge-omgevingen.

Ten slotte vermindert het bedienen van het verfijnde AI-model aan de rand van de onderneming aanzienlijk de latentie die vaak gepaard gaat met het verwerven, verzenden, transformeren en verwerken van gegevens. Door de pre-training in de cloud te ontkoppelen van fijnafstemming en inferentie aan de edge, worden de totale operationele kosten verlaagd door de benodigde tijd en de kosten voor gegevensverplaatsing die gepaard gaan met een inferentietaak te verminderen (zie figuur 3).

Figuur 3. Waardevoorstel voor FM-verfijning en inferentie aan de operationele rand met een edge-in-a-box. Een voorbeeldige use-case waarbij een civiel ingenieur een dergelijk FM-model inzet voor vrijwel realtime inzichten in defectdetectie met behulp van drone-beeldinvoer.
Figuur 3. Waardevoorstel voor FM-verfijning en inferentie aan de operationele rand met een edge-in-a-box. Een voorbeeldige use-case waarbij een civiel ingenieur een dergelijk FM-model inzet voor vrijwel realtime inzichten in defectdetectie met behulp van drone-beeldinvoer.

Om deze waardepropositie end-to-end te demonstreren, werd een voorbeeldig, op vision-transformatoren gebaseerd funderingsmodel voor civiele infrastructuur (vooraf getraind met behulp van openbare en op maat gemaakte branchespecifieke datasets) verfijnd en ingezet voor gevolgtrekking op een rand met drie knooppunten (spaak)cluster. De softwarestack omvatte het Red Hat OpenShift Container Platform en Red Hat OpenShift Data Science. Dit edge-cluster was ook verbonden met een exemplaar van de Red Hat Advanced Cluster Management for Kubernetes (RHACM)-hub die in de cloud draaide.

Zero-touch-voorziening

Op beleid gebaseerde, zero-touch provisioning werd uitgevoerd met Red Hat Advanced Cluster Management for Kubernetes (RHACM) via beleid en plaatsingstags, die specifieke edge-clusters binden aan een reeks softwarecomponenten en configuraties. Deze softwarecomponenten – die zich over de volledige stack uitstrekken en rekenkracht, opslag, netwerk en de AI-werklast omvatten – werden geïnstalleerd met behulp van verschillende OpenShift-operators, het leveren van de vereiste applicatieservices en S3 Bucket (opslag).

Het vooraf getrainde fundamentele model (FM) voor civiele infrastructuur werd verfijnd via een Jupyter Notebook binnen Red Hat OpenShift Data Science (RHODS) met behulp van gelabelde gegevens om zes soorten defecten op betonnen bruggen te classificeren. De inferentiebediening van deze verfijnde FM werd ook gedemonstreerd met behulp van een Triton-server. Bovendien werd monitoring van de gezondheid van dit edge-systeem mogelijk gemaakt door observatiestatistieken van de hardware- en softwarecomponenten via Prometheus te aggregeren naar het centrale RHACM-dashboard in de cloud. Bedrijven in de civiele infrastructuur kunnen deze FM's op hun edge-locaties inzetten en drone-beelden gebruiken om defecten bijna in realtime te detecteren, waardoor de tijd tot inzicht wordt versneld en de kosten voor het verplaatsen van grote hoeveelheden high-definition gegevens van en naar de cloud worden verlaagd.

Samengevat

De combinatie van IBM watsonx data- en AI-platformmogelijkheden voor funderingsmodellen (FM's) met een edge-in-a-box-apparaat stellen bedrijven in staat AI-workloads uit te voeren voor FM-verfijning en -inferentie aan de operationele rand. Dit apparaat kan complexe gebruiksscenario's out-of-the-box aan en bouwt het hub-and-spoke-framework voor gecentraliseerd beheer, automatisering en zelfbediening. Edge FM-implementaties kunnen worden teruggebracht van weken naar uren met herhaalbaar succes, hogere veerkracht en beveiliging.

Meer informatie over fundamentele modellen

Zorg ervoor dat je alle afleveringen in deze reeks blogposts over edge computing bekijkt:

Categorieën

Meer van Cloud

Temenos brengt innovatieve betalingsmogelijkheden naar IBM Cloud om banken te helpen transformeren

3 min gelezen - Het betalingsecosysteem bevindt zich op een keerpunt voor transformatie en wij geloven dat dit het moment is voor verandering. Terwijl banken hun betalingstrajecten willen moderniseren, is Temenos Payments Hub de eerste speciale betalingsoplossing geworden die innovatieve betalingsmogelijkheden biedt op de IBM Cloud for Financial Services® – een branchespecifiek platform dat is ontworpen om de digitale transformaties van financiële instellingen te versnellen met beveiliging op het hoogste niveau. voorhoede. Dit is het nieuwste initiatief in onze lange geschiedenis dat we samen klanten helpen transformeren. Met de Temenos-betalingen…

De volgende golf van modernisering van het betalingsverkeer: het minimaliseren van de complexiteit om de klantervaring te verbeteren

3 min gelezen - Het betalingsecosysteem bevindt zich op een keerpunt voor transformatie, vooral omdat we de opkomst zien van disruptieve digitale nieuwkomers die nieuwe betaalmethoden introduceren, zoals cryptocurrency en digitale valuta van de centrale bank (CDBC). Met meer keuzes voor klanten wordt het veroveren van een deel van de portemonnee competitiever voor traditionele banken. Dit is slechts een van de vele voorbeelden die laten zien hoe de betalingsruimte is geëvolueerd. Tegelijkertijd zien we steeds vaker dat toezichthouders de ontwikkelingen in de sector nauwlettender in de gaten houden.

IBM Connected Trade Platform helpt de digitalisering van handel en supply chain-financiering mogelijk te maken

4 min gelezen - Tegenwoordig zien we een aanzienlijke digitale ontwrichting in de handel en financiering van de toeleveringsketen, die grotendeels wordt beïnvloed door mondiale gebeurtenissen en geopolitiek, veranderende regelgeving, nalevings- en controlevereisten, vooruitgang in technologie en innovatie, en toegang tot kapitaal. Wanneer we deze disruptieve factoren nader onderzoeken, wordt het duidelijk dat er een grote verscheidenheid aan factoren is die van invloed kunnen zijn op de mondiale handel en de financiering van de toeleveringsketen. Deze kunnen variëren van een verhoogde inflatie (die het potentieel heeft om marges te veroorzaken...

Neem veilig SSH-sessies op RHEL op in een privé VPC-netwerk

5 min gelezen - In deze blogpost leer je hoe je SSH-sessies kunt opnemen op een Red Hat Enterprise Linux (RHEL) VSI in een privé VPC-netwerk met behulp van ingebouwde pakketten. Het particuliere VPC-netwerk wordt ingericht via Terraform en de RHEL-pakketten worden geïnstalleerd met behulp van Ansible-automatisering. Bovendien leert u hoe u een bastionhost met hoge beschikbaarheid instelt. Wat is sessie-opname en waarom is dit vereist? Een bastionhost en een jumpserver zijn beide beveiligingsmechanismen die worden gebruikt in netwerk- en ...

Tijdstempel:

Meer van IBM