Podstawowe modele na krawędzi — blog IBM

Podstawowe modele na krawędzi — blog IBM

Węzeł źródłowy: 2891323

Podstawowe modele na krawędzi — blog IBM



Widok z lotu ptaka na budynek

Modele podstawowe (FM) wyznaczają początek nowej ery w uczenie maszynowe (ML) i sztuczna inteligencja (AI), co prowadzi do szybszego rozwoju sztucznej inteligencji, którą można dostosować do szerokiego zakresu dalszych zadań i dostosować do szeregu zastosowań. 

Wraz ze wzrostem znaczenia przetwarzania danych w miejscu wykonywania pracy, udostępnianie modeli sztucznej inteligencji na brzegu przedsiębiorstwa umożliwia przewidywanie w czasie zbliżonym do rzeczywistego, przy jednoczesnym przestrzeganiu wymogów dotyczących suwerenności danych i prywatności. Łącząc IBM Watsonx możliwości platformy danych i sztucznej inteligencji dla FM z przetwarzaniem brzegowym, przedsiębiorstwa mogą uruchamiać obciążenia AI w celu dostrajania FM i wnioskowania na krawędzi operacyjnej. Umożliwia to przedsiębiorstwom skalowanie wdrożeń sztucznej inteligencji na brzegu sieci, redukując czas i koszty wdrażania oraz skracając czas reakcji.

Koniecznie zapoznaj się ze wszystkimi częściami tej serii postów na blogu na temat przetwarzania brzegowego:

Czym są modele podstawowe?

Modele podstawowe (FM), które są szkolone na szeroką skalę na szerokim zestawie nieoznakowanych danych, napędzają najnowocześniejsze aplikacje sztucznej inteligencji (AI). Można je dostosować do szerokiego zakresu dalszych zadań i dostosować do szeregu zastosowań. Nowoczesne modele sztucznej inteligencji, które wykonują określone zadania w jednej domenie, ustępują miejsca FM, ponieważ uczą się bardziej ogólnie i działają w różnych domenach i problemach. Jak sama nazwa wskazuje, FM może być podstawą wielu zastosowań modelu AI.

FM zajmują się dwoma kluczowymi wyzwaniami, które powstrzymują przedsiębiorstwa przed skalowaniem wdrażania sztucznej inteligencji. Po pierwsze, przedsiębiorstwa wytwarzają ogromną ilość nieoznaczonych danych, z których tylko część jest oznaczona na potrzeby szkolenia w zakresie modeli sztucznej inteligencji. Po drugie, zadanie oznaczania i dodawania adnotacji wymaga ogromnego zaangażowania człowieka i często wymaga kilkuset godzin czasu eksperta merytorycznego (MŚP). To sprawia, że ​​skalowanie w różnych przypadkach użycia jest nieopłacalne, ponieważ wymagałoby armii MŚP i ekspertów ds. danych. Przyjmując ogromne ilości nieoznaczonych danych i stosując techniki samonadzoru do uczenia modeli, menedżerowie zarządzający usunęli te wąskie gardła i otworzyli drogę do wdrożenia sztucznej inteligencji na szeroką skalę w całym przedsiębiorstwie. Te ogromne ilości danych, które istnieją w każdej firmie, czekają na uwolnienie w celu uzyskania wglądu.

Czym są duże modele językowe?

Duże modele językowe (LLM) to klasa modeli podstawowych (FM), które składają się z warstw sieci neuronowe które zostały przeszkolone na tak ogromnych ilościach nieoznakowanych danych. Używają algorytmów uczenia się samonadzorowanego do wykonywania różnych przetwarzanie języka naturalnego (NLP) zadania w sposób podobny do tego, jak ludzie używają języka (patrz rysunek 1).

Rysunek 1. Duże modele językowe (LLM) szturmem podbiły dziedzinę sztucznej inteligencji.
Rysunek 1. Duże modele językowe (LLM) szturmem podbiły dziedzinę sztucznej inteligencji.

Skaluj i przyspieszaj wpływ sztucznej inteligencji

Budowa i wdrażanie modelu podstawowego (FM) składa się z kilku etapów. Obejmują one pozyskiwanie danych, selekcję danych, wstępne przetwarzanie danych, wstępne uczenie FM, dostrajanie modelu do jednego lub większej liczby dalszych zadań, obsługę wnioskowania oraz zarządzanie danymi i modelami sztucznej inteligencji oraz zarządzanie cyklem życia – wszystko to można opisać jako FMOps.

Aby pomóc w tym wszystkim, IBM oferuje przedsiębiorstwom niezbędne narzędzia i możliwości, aby wykorzystać moc tych FM IBM Watsonx, gotowa do zastosowania w przedsiębiorstwach platforma sztucznej inteligencji i danych, zaprojektowana w celu zwielokrotnienia wpływu sztucznej inteligencji na całe przedsiębiorstwo. IBM watsonx składa się z następujących elementów:

  1. IBM watsonx.ai przynosi nowe generatywna sztuczna inteligencja możliwości — wspierane przez FM i tradycyjne uczenie maszynowe (ML) — w potężne studio obejmujące cały cykl życia sztucznej inteligencji.
  2. IBM watsonx.data to dostosowany do potrzeb magazyn danych zbudowany w oparciu o otwartą architekturę Lakehouse, umożliwiający skalowanie obciążeń AI pod kątem wszystkich danych w dowolnym miejscu.
  3. IBM watsonx.governance to kompleksowy, zautomatyzowany zestaw narzędzi do zarządzania cyklem życia AI, który został stworzony, aby umożliwić odpowiedzialne, przejrzyste i zrozumiałe przepływy pracy AI.

Innym kluczowym wektorem jest rosnące znaczenie obliczeń na obrzeżach przedsiębiorstwa, takich jak lokalizacje przemysłowe, hale produkcyjne, sklepy detaliczne, placówki telekomunikacyjne itp. Mówiąc dokładniej, sztuczna inteligencja na obrzeżach przedsiębiorstwa umożliwia przetwarzanie danych tam, gdzie wykonywana jest praca dla analiza w czasie zbliżonym do rzeczywistego. Krawędź przedsiębiorstwa to miejsce, w którym generowane są ogromne ilości danych przedsiębiorstwa i gdzie sztuczna inteligencja może dostarczać cennych, aktualnych i przydatnych spostrzeżeń biznesowych.

Udostępnianie modeli sztucznej inteligencji na brzegu sieci umożliwia przewidywanie w czasie zbliżonym do rzeczywistego, przy jednoczesnym przestrzeganiu wymogów dotyczących suwerenności danych i prywatności. To znacznie zmniejsza opóźnienia często związane z pozyskiwaniem, przesyłaniem, przekształcaniem i przetwarzaniem danych z inspekcji. Praca na brzegu sieci pozwala nam chronić wrażliwe dane przedsiębiorstwa i obniżać koszty przesyłania danych dzięki szybszemu czasowi reakcji.

Skalowanie wdrożeń sztucznej inteligencji na brzegu sieci nie jest jednak łatwym zadaniem w obliczu wyzwań związanych z danymi (heterogeniczność, wolumen i regulacje) oraz ograniczonymi zasobami (moc obliczeniowa, łączność sieciowa, pamięć masowa, a nawet umiejętności IT). Można je ogólnie opisać w dwóch kategoriach:

  • Czas/koszt wdrożenia: Każde wdrożenie składa się z kilku warstw sprzętu i oprogramowania, które należy zainstalować, skonfigurować i przetestować przed wdrożeniem. Obecnie montaż może zająć specjaliście od tygodnia lub dwóch w każdej lokalizacji, poważnie ogranicza szybkość i efektywność kosztową, z jaką przedsiębiorstwa mogą zwiększać skalę wdrożeń w całej organizacji.                                  
  • Zarządzanie dniem 2: Ogromna liczba wdrożonych urządzeń brzegowych i lokalizacja geograficzna każdego wdrożenia często mogą sprawić, że zapewnienie lokalnego wsparcia IT w każdej lokalizacji w celu monitorowania, konserwacji i aktualizacji tych wdrożeń będzie zbyt kosztowne.

Wdrożenia brzegowej sztucznej inteligencji

IBM opracował architekturę brzegową, która pozwala sprostać tym wyzwaniom, wprowadzając zintegrowany model sprzętu/oprogramowania (HW/SW) do wdrożeń sztucznej inteligencji na krawędzi. Składa się z kilku kluczowych paradygmatów, które pomagają skalowalność wdrożeń AI:

  • Oparte na zasadach, bezdotykowe udostępnianie pełnego stosu oprogramowania.
  • Ciągłe monitorowanie stanu systemu brzegowego
  • Możliwości zarządzania aktualizacjami oprogramowania/bezpieczeństwa/konfiguracji i przesyłania ich do wielu lokalizacji brzegowych — wszystko z centralnej lokalizacji w chmurze do zarządzania od drugiego dnia.

Rozproszoną architekturę typu „hub-and-szprychy” można wykorzystać do skalowania wdrożeń sztucznej inteligencji w przedsiębiorstwie na brzegu sieci, gdzie centralna chmura lub korporacyjne centrum danych pełni rolę koncentratora, a urządzenie typu „edytuj w pudełku” działa jak szprycha w lokalizacji brzegowej. Ten model centrum i szprych, obejmujący środowiska chmury hybrydowej i środowiska brzegowe, najlepiej ilustruje równowagę niezbędną do optymalnego wykorzystania zasobów potrzebnych do operacji FM (patrz rysunek 2).

Rysunek 2. Konfiguracja wdrożenia typu „hub-and-szprychy” dla korporacyjnej sztucznej inteligencji w lokalizacjach brzegowych.
Rysunek 2. Konfiguracja wdrożenia typu „hub-and-szprychy” dla korporacyjnej sztucznej inteligencji w lokalizacjach brzegowych.

Wstępne uczenie tych podstawowych modeli dużych języków (LLM) i innych typów modeli podstawowych przy użyciu technik samonadzoru na ogromnych, nieoznaczonych zbiorach danych często wymaga znacznych zasobów obliczeniowych (GPU) i najlepiej jest wykonywać je w centrum. Praktycznie nieograniczone zasoby obliczeniowe i duże stosy danych, często przechowywane w chmurze, pozwalają na wstępne uczenie modeli o dużych parametrach i ciągłe doskonalenie dokładności tych podstawowych modeli podstawowych.

Z drugiej strony dostrojenie tych podstawowych FM do dalszych zadań – które wymagają jedynie kilkudziesięciu lub setek oznaczonych próbek danych i obsługi wnioskowania – można wykonać za pomocą zaledwie kilku procesorów graficznych na brzegu przedsiębiorstwa. Dzięki temu wrażliwe, oznakowane dane (lub dane stanowiące klejnot koronny przedsiębiorstwa) mogą bezpiecznie pozostać w środowisku operacyjnym przedsiębiorstwa, jednocześnie zmniejszając koszty przesyłania danych.

Korzystając z podejścia pełnego stosu do wdrażania aplikacji na urządzeniach brzegowych, analityk danych może dostrajać, testować i wdrażać modele. Można to osiągnąć w jednym środowisku, skracając jednocześnie cykl rozwoju w celu udostępniania nowych modeli sztucznej inteligencji użytkownikom końcowym. Platformy takie jak Red Hat OpenShift Data Science (RHODS) i niedawno ogłoszona Red Hat OpenShift AI zapewniają narzędzia umożliwiające szybkie opracowywanie i wdrażanie gotowych do produkcji modeli sztucznej inteligencji w rozproszona chmura i środowiska brzegowe.

Wreszcie udostępnienie dopracowanego modelu sztucznej inteligencji na brzegu przedsiębiorstwa znacznie zmniejsza opóźnienia często związane z pozyskiwaniem, przesyłaniem, przekształcaniem i przetwarzaniem danych. Oddzielenie wstępnego szkolenia w chmurze od dostrajania i wnioskowania na brzegu sieci obniża całkowity koszt operacyjny poprzez redukcję wymaganego czasu i kosztów przenoszenia danych związanych z dowolnym zadaniem wnioskowania (patrz rysunek 3).

Rysunek 3. Propozycja wartości w zakresie dostrajania FM i wnioskowania na krawędzi operacyjnej za pomocą rozwiązania Edge-in-a-Box. Przykładowy przypadek użycia inżyniera budownictwa wdrażającego taki model FM do wykrywania defektów w czasie zbliżonym do rzeczywistego przy użyciu danych wejściowych z drona.
Rysunek 3. Propozycja wartości w zakresie dostrajania FM i wnioskowania na krawędzi operacyjnej za pomocą rozwiązania Edge-in-a-Box. Przykładowy przypadek użycia inżyniera budownictwa wdrażającego taki model FM do wykrywania defektów w czasie zbliżonym do rzeczywistego przy użyciu danych wejściowych z drona.

Aby kompleksowo zademonstrować tę propozycję wartości, dostrojono i wdrożono przykładowy model fundamentów infrastruktury cywilnej oparty na transformatorze wizyjnym (wstępnie przeszkolony przy użyciu publicznych i niestandardowych zbiorów danych specyficznych dla branży) i wdrożono go do wnioskowania na krawędzi z trzema węzłami (szprychowa) grupa. Stos oprogramowania obejmował platformę kontenerową Red Hat OpenShift i Red Hat OpenShift Data Science. Ten klaster brzegowy został również połączony z instancją koncentratora Red Hat Advanced Cluster Management for Kubernetes (RHACM) działającą w chmurze.

Udostępnianie bezdotykowe

Opartą na zasadach, bezdotykową aprowizację przeprowadzono za pomocą Red Hat Advanced Cluster Management for Kubernetes (RHACM) za pośrednictwem zasad i znaczników rozmieszczenia, które wiążą określone klastry brzegowe z zestawem komponentów oprogramowania i konfiguracji. Te komponenty oprogramowania — obejmujące cały stos i obejmujące obliczenia, pamięć masową, sieć i obciążenie sztucznej inteligencji — zostały zainstalowane przy użyciu różnych operatorów OpenShift, dostarczania wymaganych usług aplikacyjnych i S3 Bucket (pamięć masowa).

Wstępnie wytrenowany model podstawowy (FM) infrastruktury cywilnej został dostrojony za pomocą Jupyter Notebook w ramach Red Hat OpenShift Data Science (RHODS), korzystając z oznakowanych danych w celu sklasyfikowania sześciu typów defektów występujących na mostach betonowych. Obsługa wnioskowania tego precyzyjnie dostrojonego FM została również zademonstrowana przy użyciu serwera Triton. Co więcej, monitorowanie stanu tego systemu brzegowego było możliwe dzięki agregowaniu wskaźników obserwowalności ze sprzętu i oprogramowania za pośrednictwem Prometheusa do centralnego pulpitu RHACM w chmurze. Przedsiębiorstwa zajmujące się infrastrukturą cywilną mogą wdrażać te FM w swoich lokalizacjach brzegowych i wykorzystywać obrazy z dronów do wykrywania defektów w czasie zbliżonym do rzeczywistego, co przyspiesza uzyskiwanie informacji i zmniejsza koszty przenoszenia dużych ilości danych w wysokiej rozdzielczości do i z chmury.

Podsumowanie

łącząc IBM Watsonx Możliwości platformy danych i sztucznej inteligencji dla modeli podstawowych (FM) za pomocą urządzenia typu Edge-in-a-Box umożliwiają przedsiębiorstwom uruchamianie obciążeń AI w celu dostrajania FM i wnioskowania na krawędzi operacyjnej. To urządzenie od razu radzi sobie ze złożonymi przypadkami użycia i tworzy platformę typu hub-and-szprychy do scentralizowanego zarządzania, automatyzacji i samoobsługi. Wdrożenia Edge FM można skrócić z tygodni do godzin, zapewniając powtarzalny sukces, większą odporność i bezpieczeństwo.

Dowiedz się więcej o modelach podstawowych

Koniecznie zapoznaj się ze wszystkimi częściami tej serii postów na blogu na temat przetwarzania brzegowego:

Kategorie

Więcej z chmury

Temenos wprowadza innowacyjne możliwości płatności do IBM Cloud, aby pomóc bankom w transformacji

3 czytaj min - Ekosystem płatności znajduje się w punkcie zwrotnym transformacji i wierzymy, że teraz jest czas na zmiany. W miarę jak banki chcą unowocześniać swoje procesy płatnicze, Temenos Payments Hub stał się pierwszym dedykowanym rozwiązaniem płatniczym oferującym innowacyjne możliwości płatności w chmurze IBM Cloud for Financial Services® — platformie branżowej zaprojektowanej w celu przyspieszenia transformacji cyfrowej instytucji finansowych przy jednoczesnym zapewnieniu bezpieczeństwa na poziomie czoło. To najnowsza inicjatywa w naszej długiej historii, pomagająca klientom w transformacji. Dzięki płatnościom Temenos…

Następna fala modernizacji płatności: Minimalizacja złożoności w celu podniesienia jakości obsługi klienta

3 czytaj min - Ekosystem płatności znajduje się w punkcie zwrotnym transformacji, zwłaszcza gdy obserwujemy wzrost liczby przełomowych uczestników rynku cyfrowego, którzy wprowadzają nowe metody płatności, takie jak kryptowaluta i cyfrowe waluty banku centralnego (CDBC). Mając większy wybór dla klientów, przejmowanie części portfela staje się coraz bardziej konkurencyjne dla tradycyjnych banków. To tylko jeden z wielu przykładów pokazujących, jak ewoluowała przestrzeń płatnicza. Jednocześnie coraz częściej widzimy, że organy regulacyjne uważniej monitorują sytuację w branży…

Platforma IBM Connected Trade Platform pomaga w cyfryzacji finansowania handlu i łańcucha dostaw

4 czytaj min - Obecnie jesteśmy świadkami znaczących zakłóceń cyfrowych w branży finansowania handlu i łańcucha dostaw, na które w dużej mierze wpływają wydarzenia globalne i geopolityka, zmieniające się przepisy, wymogi dotyczące zgodności i kontroli, postęp w technologii i innowacjach oraz dostęp do kapitału. Po bliższym zbadaniu tych czynników zakłócających staje się jasne, że istnieje wiele różnych czynników, które mogą mieć wpływ na finansowanie światowego handlu i łańcucha dostaw. Mogą one wahać się od podwyższonej inflacji (która może powodować marżę…

Bezpiecznie nagrywaj sesje SSH na RHEL w prywatnej sieci VPC

5 czytaj min - W tym poście na blogu dowiesz się, jak rejestrować sesje SSH na platformie Red Hat Enterprise Linux (RHEL) VSI w prywatnej sieci VPC przy użyciu wbudowanych pakietów. Sieć prywatna VPC jest obsługiwana przez Terraform, a pakiety RHEL są instalowane przy użyciu automatyzacji Ansible. Ponadto dowiesz się, jak skonfigurować host bastionowy o wysokiej dostępności. Co to jest nagrywanie sesji i dlaczego jest wymagane? Zarówno host bastionowy, jak i serwer skokowy to mechanizmy bezpieczeństwa stosowane w sieci i…

Znak czasu:

Więcej z IBM