Modele fundamentale la margine - IBM Blog

Modele fundamentale la margine – IBM Blog

Nodul sursă: 2891323

Modele fundamentale la margine – IBM Blog



Vedere aeriană a clădirii

Modele fundamentale (FM) marchează începutul unei noi ere în învățare automată (ML) și inteligență artificială (AI), ceea ce duce la o dezvoltare mai rapidă a IA care poate fi adaptată la o gamă largă de sarcini din aval și ajustată pentru o serie de aplicații. 

Odată cu importanța din ce în ce mai mare a procesării datelor acolo unde se lucrează, servirea modelelor AI la marginea întreprinderii permite predicții aproape în timp real, respectând în același timp cerințele de suveranitate și confidențialitate a datelor. Prin combinarea IBM watsonx capabilitățile platformei de date și AI pentru FM cu edge computing, întreprinderile pot rula sarcini de lucru AI pentru reglarea fină și inferența FM la marginea operațională. Acest lucru permite companiilor să extindă implementările AI la margine, reducând timpul și costurile de implementare cu timpi de răspuns mai rapid.

Asigurați-vă că consultați toate ratele din această serie de postări de blog despre edge computing:

Care sunt modelele de bază?

Modelele fundamentale (FM), care sunt antrenate pe un set larg de date neetichetate la scară, conduc la aplicații de ultimă generație de inteligență artificială (AI). Acestea pot fi adaptate la o gamă largă de sarcini din aval și pot fi reglate fin pentru o gamă largă de aplicații. Modelele moderne de inteligență artificială, care execută sarcini specifice într-un singur domeniu, dau loc FM-urilor, deoarece învață în general și lucrează în domenii și probleme. După cum sugerează și numele, un FM poate fi fundația pentru multe aplicații ale modelului AI.

FM abordează două provocări cheie care au împiedicat întreprinderile să crească adoptarea AI. În primul rând, întreprinderile produc o cantitate mare de date neetichetate, dintre care doar o parte este etichetată pentru formarea modelului AI. În al doilea rând, această sarcină de etichetare și adnotare este extrem de intensivă în oameni, necesitând adesea câteva sute de ore din timpul unui expert în materie (IMM). Acest lucru face ca costurile să fie prohibitive să fie extinse pe mai multe cazuri de utilizare, deoarece ar necesita armate de IMM-uri și experți în date. Prin ingerarea unor cantități mari de date neetichetate și folosind tehnici de auto-supraveghere pentru formarea modelelor, FM au eliminat aceste blocaje și au deschis calea pentru adoptarea pe scară largă a AI în întreaga întreprindere. Aceste cantități masive de date care există în fiecare afacere așteaptă să fie dezlănțuite pentru a genera informații.

Care sunt modelele mari de limbaj?

Modelele de limbaj mari (LLM) sunt o clasă de modele fundamentale (FM) care constau din straturi de rețele neuronale care au fost instruiți cu privire la aceste cantități masive de date neetichetate. Ei folosesc algoritmi de învățare auto-supravegheați pentru a efectua o varietate de prelucrarea limbajului natural (NLP) sarcini în moduri care sunt similare cu modul în care oamenii folosesc limbajul (vezi Figura 1).

Figura 1. Modelele de limbaj mari (LLM) au luat cu asalt domeniul IA.
Figura 1. Modelele de limbaj mari (LLM) au luat cu asalt domeniul IA.

Scalați și accelerați impactul AI

Există mai mulți pași pentru construirea și implementarea unui model de bază (FM). Acestea includ asimilarea de date, selecția datelor, preprocesarea datelor, pregătirea prealabilă FM, ajustarea modelului la una sau mai multe sarcini din aval, servirea inferențelor și guvernanța modelului de date și AI și managementul ciclului de viață - toate acestea pot fi descrise ca FMOps.

Pentru a ajuta la toate acestea, IBM oferă întreprinderilor instrumentele și capabilitățile necesare pentru a valorifica puterea acestor FM-uri prin IBM watsonx, o platformă de date și AI pregătită pentru întreprindere, concepută pentru a multiplica impactul AI într-o întreprindere. IBM watsonx este format din următoarele:

  1. IBM watsonx.ai aduce noi AI generativă capabilități — alimentate de FM și învățarea automată tradițională (ML) — într-un studio puternic care acoperă ciclul de viață AI.
  2. IBM watsonx.data este un depozit de date potrivit pentru scop, construit pe o arhitectură deschisă lakehouse pentru a scala sarcinile de lucru AI pentru toate datele dvs., oriunde.
  3. IBM watsonx.guvernare este un set de instrumente de guvernare a ciclului de viață automatizat de la capăt la capăt al AI, care este construit pentru a permite fluxuri de lucru AI responsabile, transparente și explicabile.

Un alt vector cheie este importanța din ce în ce mai mare a calculului la marginea întreprinderii, cum ar fi locații industriale, etaje de producție, magazine de vânzare cu amănuntul, site-uri de la marginea telecomunicațiilor etc. Mai precis, AI la marginea întreprinderii permite procesarea datelor unde se lucrează pentru analiză aproape în timp real. Marginea întreprinderii este locul în care sunt generate cantități mari de date ale întreprinderii și unde AI poate oferi informații valoroase, oportune și aplicabile asupra afacerii.

Servirea modelelor AI la margine permite predicții aproape în timp real, respectând în același timp cerințele de suveranitate și confidențialitate a datelor. Acest lucru reduce semnificativ latența asociată adesea cu achiziția, transmiterea, transformarea și procesarea datelor de inspecție. Lucrul la margine ne permite să protejăm datele sensibile ale întreprinderii și să reducem costurile de transfer de date cu timpi de răspuns mai rapid.

Cu toate acestea, scalarea implementărilor AI la margine nu este o sarcină ușoară pe fondul provocărilor legate de date (eterogenitate, volum și reglementare) și resurse limitate (calculator, conectivitate la rețea, stocare și chiar competențe IT). Acestea pot fi descrise în linii mari în două categorii:

  • Timp/cost de implementare: Fiecare implementare constă din mai multe straturi de hardware și software care trebuie instalate, configurate și testate înainte de implementare. Astăzi, un profesionist de service poate dura până la o săptămână sau două pentru instalare la fiecare locație, limitând sever cât de rapid și rentabil întreprinderile pot extinde implementările în organizația lor.                                  
  • Managementul zilei 2: Numărul mare de margini desfășurate și locația geografică a fiecărei implementări ar putea face adesea să fie extrem de costisitoare pentru a oferi suport IT local în fiecare locație pentru a monitoriza, întreține și actualiza aceste implementări.

Implementări Edge AI

IBM a dezvoltat o arhitectură de vârf care abordează aceste provocări aducând un model de dispozitiv hardware/software integrat (HW/SW) la implementările de IA de vârf. Acesta constă din mai multe paradigme cheie care ajută la scalabilitatea implementărilor AI:

  • Furnizare bazată pe politici, fără atingere a întregii stive de software.
  • Monitorizarea continuă a sănătății sistemului edge
  • Capacități de a gestiona și de a împinge actualizări de software/securitate/configurație în numeroase locații marginale — toate dintr-o locație centrală bazată pe cloud pentru gestionarea a doua zi.

O arhitectură distribuită hub-and-spoke poate fi utilizată pentru a scala implementările AI ale întreprinderii la margine, în care un cloud central sau un centru de date al companiei acționează ca un hub, iar dispozitivul edge-in-a-box acționează ca o spiță într-o locație de margine.. Acest model hub and spoke, care se extinde în medii hibride cloud și edge, ilustrează cel mai bine echilibrul necesar pentru a utiliza în mod optim resursele necesare pentru operațiunile FM (vezi Figura 2).

Figura 2. O configurație de implementare hub-and-spoke pentru AI de întreprindere în locații marginale.
Figura 2. O configurație de implementare hub-and-spoke pentru AI de întreprindere în locații marginale.

Preinstruirea acestor modele de limbă mari de bază (LLM) și a altor tipuri de modele de bază folosind tehnici auto-supravegheate pe seturi de date vaste neetichetate necesită adesea resurse semnificative de calcul (GPU) și se realizează cel mai bine într-un hub. Resursele de calcul practic nelimitate și grămezile mari de date stocate adesea în cloud permit pregătirea prealabilă a modelelor cu parametri mari și îmbunătățirea continuă a preciziei acestor modele de bază de bază.

Pe de altă parte, reglarea acestor FM de bază pentru sarcini în aval – care necesită doar câteva zeci sau sute de eșantioane de date etichetate și servire de inferență – poate fi realizată cu doar câteva GPU-uri la marginea întreprinderii. Acest lucru permite ca datele sensibile etichetate (sau datele bijuterie ale companiei) să rămână în siguranță în mediul operațional al întreprinderii, reducând în același timp costurile de transfer de date.

Folosind o abordare full-stack pentru implementarea aplicațiilor la margine, un cercetător de date poate efectua reglarea fină, testarea și implementarea modelelor. Acest lucru poate fi realizat într-un singur mediu, reducând în același timp ciclul de viață de dezvoltare pentru a oferi noilor modele AI utilizatorilor finali. Platforme precum Red Hat OpenShift Data Science (RHODS) și anunțul recent Red Hat OpenShift AI oferă instrumente pentru dezvoltarea și implementarea rapidă a modelelor AI pregătite pentru producție în cloud distribuit și medii de margine.

În cele din urmă, deservirea modelului AI reglat la marginea întreprinderii reduce semnificativ latența asociată adesea cu achiziția, transmiterea, transformarea și procesarea datelor. Decuplarea antrenamentului prealabil în cloud de reglajul fin și inferența pe margine scade costul operațional general prin reducerea timpului necesar și a costurilor de mișcare a datelor asociate cu orice sarcină de inferență (vezi Figura 3).

Figura 3. Propunere de valoare pentru reglajul fin și inferența FM la marginea operațională cu un edge-in-a-box. Un caz de utilizare exemplar cu un inginer civil care implementează un astfel de model FM pentru informații despre detectarea defectelor în timp aproape real folosind intrări de imagini cu drone.
Figura 3. Propunere de valoare pentru reglajul fin și inferența FM la marginea operațională cu un edge-in-a-box. Un caz de utilizare exemplar cu un inginer civil care implementează un astfel de model FM pentru informații despre detectarea defectelor în timp aproape real folosind intrări de imagini cu drone.

Pentru a demonstra această propunere de valoare de la capăt la capăt, un model de fundație exemplar bazat pe transformator de viziune pentru infrastructura civilă (preformat folosind seturi de date publice și personalizate specifice industriei) a fost reglat fin și implementat pentru inferență pe o margine cu trei noduri. (spoke) cluster. Stiva de software a inclus Red Hat OpenShift Container Platform și Red Hat OpenShift Data Science. Acest cluster edge a fost, de asemenea, conectat la o instanță a hub-ului Red Hat Advanced Cluster Management for Kubernetes (RHACM) care rulează în cloud.

Aprovizionare fără atingere

Provizionarea bazată pe politici, fără atingere, a fost realizată cu Red Hat Advanced Cluster Management for Kubernetes (RHACM) prin politici și etichete de plasare, care leagă anumite clustere de margine la un set de componente și configurații software. Aceste componente software – extinzându-se pe întregul stivă și acoperind calculul, stocarea, rețeaua și sarcina de lucru AI – au fost instalate folosind diverși operatori OpenShift, furnizarea serviciilor de aplicații necesare și S3 Bucket (stocare).

Modelul de bază pregătit (FM) pentru infrastructura civilă a fost ajustat cu ajutorul unui Jupyter Notebook în cadrul Red Hat OpenShift Data Science (RHODS) folosind date etichetate pentru a clasifica șase tipuri de defecte găsite pe podurile de beton. Servirea de inferență a acestui FM reglat fin a fost, de asemenea, demonstrată folosind un server Triton. În plus, monitorizarea stării de sănătate a acestui sistem edge a fost posibilă prin agregarea valorilor de observabilitate de la componentele hardware și software prin intermediul Prometheus la tabloul de bord central RHACM din cloud. Întreprinderile de infrastructură civilă pot implementa aceste FM în locațiile lor marginale și pot folosi imaginile dronei pentru a detecta defectele aproape în timp real, accelerând timpul până la perspectivă și reducând costul deplasării unor volume mari de date de înaltă definiție către și dinspre Cloud.

Rezumat

Combinând IBM watsonx Capacitățile platformei de date și AI pentru modele de bază (FM) cu un dispozitiv edge-in-a-box permit întreprinderilor să ruleze sarcini de lucru AI pentru reglarea fină și inferența FM la marginea operațională. Acest dispozitiv poate gestiona cazuri de utilizare complexe imediate și construiește cadrul centralizat pentru management centralizat, automatizare și autoservire. Implementările Edge FM pot fi reduse de la săptămâni la ore cu succes repetabil, rezistență și securitate mai mari.

Aflați mai multe despre modelele de bază

Asigurați-vă că consultați toate ratele din această serie de postări de blog despre edge computing:

Categorii

Mai multe de la Cloud

Temenos aduce capabilități inovatoare de plăți la IBM Cloud pentru a ajuta băncile să se transforme

3 citește min - Ecosistemul de plăți se află într-un punct de inflexiune pentru transformare și credem că acum este timpul pentru schimbare. Pe măsură ce băncile caută să-și modernizeze călătoriile de plăți, Temenos Payments Hub a devenit prima soluție de plăți dedicată care oferă capabilități inovatoare de plăți pe IBM Cloud for Financial Services® — o platformă specifică industriei, concepută pentru a accelera transformările digitale ale instituțiilor financiare cu securitate la nivel de fruntea. Aceasta este cea mai recentă inițiativă din lunga noastră istorie, care ajută clienții să se transforme. Cu plățile Temanos...

Următorul val de modernizare a plăților: minimizarea complexității pentru a îmbunătăți experiența clienților

3 citește min - Ecosistemul de plăți se află într-un punct de inflexiune pentru transformare, mai ales că observăm creșterea numărului de participanți digitali perturbatori care introduc noi metode de plată, cum ar fi criptomoneda și monedele digitale ale băncii centrale (CDBC). Cu mai multe opțiuni pentru clienți, capturarea cotei de portofel devine din ce în ce mai competitivă pentru băncile tradiționale. Acesta este doar unul dintre numeroasele exemple care arată cum a evoluat spațiul plăților. În același timp, vedem din ce în ce mai mult autoritățile de reglementare care monitorizează mai îndeaproape...

IBM Connected Trade Platform ajută la digitizarea comerțului și a finanțării lanțului de aprovizionare

4 citește min - Astăzi, asistăm la o perturbare digitală semnificativă în afacerile comerciale și finanțarea lanțului de aprovizionare, care este în mare măsură influențată de evenimente globale și geopolitică, reglementări în schimbare, cerințe de conformitate și control, progrese în tehnologie și inovare și acces la capital. Când examinăm mai îndeaproape acești perturbatori, este clar că există o mare varietate de factori care pot avea un impact asupra comerțului global și finanțării lanțului de aprovizionare. Acestea pot varia de la o inflație ridicată (care are potențialul de a provoca o marjă...

Înregistrați în siguranță sesiunile SSH pe RHEL într-o rețea VPC privată

5 citește min - În această postare pe blog, veți învăța cum să înregistrați sesiuni SSH pe un Red Hat Enterprise Linux (RHEL) VSI într-o rețea VPC privată, folosind pachete încorporate. Rețeaua privată VPC este furnizată prin Terraform, iar pachetele RHEL sunt instalate folosind automatizarea Ansible. În plus, veți învăța cum să configurați o gazdă bastion foarte disponibilă. Ce este înregistrarea sesiunii și de ce este necesară? O gazdă bastion și un server de salt sunt ambele mecanisme de securitate utilizate în rețea și...

Timestamp-ul:

Mai mult de la IBM