Wyjaśnialność danych: odpowiednik wyjaśnialności modelu - DATAVERSITY

Wyjaśnialność danych: odpowiednik wyjaśnialności modelu – DATAVERSITY

Węzeł źródłowy: 2658143

Dzisiaj AI i ML są wszędzie. 

Niezależnie od tego, czy wszyscy grają ChatGPT (najszybszy przyjęta aplikacja w historii) lub ostatnią propozycję dodania czwarty kolor do sygnalizacji świetlnej aby przejście na samochody samojezdne było bezpieczniejsze, sztuczna inteligencja całkowicie nasyciła nasze życie. Chociaż sztuczna inteligencja może wydawać się bardziej dostępna niż kiedykolwiek, złożoność modeli sztucznej inteligencji wzrosła wykładniczo. 

Modele AI dzielą się na główne kategorie modeli czarnoskrzynkowych i modeli białoskrzynkowych. Modele z czarną skrzynką podejmują decyzję bez wyjaśnienia, podczas gdy modele z białą skrzynką dostarczają wynik w oparciu o reguły, które dały ten wynik. 

W miarę jak zmierzamy w kierunku świata pełnych metod głębokiego uczenia się, większość z nich w dużej mierze skłania się ku modelom czarnej skrzynki. 

Problem z takim podejściem? Modeli czarnych skrzynek (takich jak te zbudowane w wizji komputerowej) nie można bezpośrednio konsumować. Jest to często określane jako problem czarnej skrzynki. Podczas gdy ponowne uczenie modeli czarnej skrzynki może zapewnić użytkownikom szybki start, interpretacja modelu i zrozumienie wyników modelu czarnej skrzynki staje się trudniejsze w miarę wzrostu złożoności modeli.

Jedną z taktyk rozwiązania zagadki czarnej skrzynki jest stworzenie bardzo indywidualnego i zrozumiałego modelu. 

Ale to nie jest kierunek, w którym zmierza świat. 

Tam, gdzie kończy się wytłumaczalność modelu, zaczyna się wytłumaczalność danych

Możliwość wyjaśnienia ma kluczowe znaczenie, ponieważ poprawia przejrzystość, dokładność i rzetelność modelu, a także może zwiększyć zaufanie do sztucznej inteligencji. Podczas gdy wyjaśnialność modelu jest podejściem konwencjonalnym, obecnie pojawia się również potrzeba nowego typu: wyjaśnialności danych.

Wyjaśnialność modelu oznacza zrozumienie algorytmu w celu zrozumienia wyniku końcowego. Na przykład, jeśli model stosowany na oddziale onkologicznym ma na celu sprawdzenie, czy wzrost jest nowotworowy, pracownik służby zdrowia powinien rozumieć zmienne, które tworzą wyniki końcowe. Chociaż brzmi to świetnie w teorii, wyjaśnialność modelu nie do końca rozwiązuje problem czarnej skrzynki. 

Ponieważ modele stają się coraz bardziej złożone, większość praktyków nie będzie w stanie wskazać transformacji i zinterpretować obliczeń w wewnętrznych warstwach modelu. Polegają w dużej mierze na tym, co mogą kontrolować, tj. uczących zbiorach danych i tym, co obserwują, wynikach i miarach przewidywania.  

Posłużmy się przykładem analityka danych budującego model do wykrywania zdjęć kubków do kawy z tysięcy fotografii – ale model zaczyna również wykrywać obrazy na przykład szklanek i kufli do piwa. Chociaż szklane i kufle do piwa mogą w pewnym stopniu przypominać kubki do kawy, istnieją wyraźne różnice, takie jak typowe materiały, kolor, nieprzezroczystość i proporcje strukturalne.

Aby model wykrywał kubki do kawy z większą niezawodnością, analityk danych musi znać odpowiedzi na pytania takie jak:

  • Jakie obrazy wybrała modelka zamiast kubków do kawy? 
  • Czy model upadł, ponieważ nie dostarczyłem mu wystarczającej liczby lub odpowiednich przykładów kubków do kawy?
  • Czy ten model jest wystarczająco dobry do tego, co próbowałem osiągnąć?
  • Czy muszę kwestionować mój pogląd na temat modelu?
  • Co mogę definitywnie ustalić, co powoduje awarię modelu? 
  • Czy mam wygenerować nowe założenia modelu?
  • Czy po prostu wybrałem niewłaściwy model do pracy na początek?

Jak widać, dostarczanie tego rodzaju wglądu, zrozumienia i wyjaśnienia modelu za każdym razem, gdy pojawia się problem, jest wysoce nieprawdopodobne.

Wyjaśnialność danych to zrozumienie dane używane do uczenia i wprowadzania danych do modelu, aby zrozumieć, w jaki sposób osiągany jest wynik końcowy modelu. Ponieważ algorytmy ML stają się coraz bardziej złożone, ale coraz szerzej stosowane w różnych zawodach i branżach, wyjaśnialność danych będzie służyć jako klucz do szybkiego odblokowywania i rozwiązywania typowych problemów, takich jak nasz przykład z kubkiem do kawy.

Zwiększenie uczciwości i przejrzystości w uczeniu maszynowym dzięki wyjaśnialności danych

Uczciwość w modelach ML to gorący temat, który można jeszcze bardziej podkręcić, stosując wyjaśnialność danych.

Dlaczego szum? Stronniczość w sztucznej inteligencji może prowadzić do uprzedzeń dla jednej grupy. Jednym z najlepiej udokumentowanych przypadków są uprzedzenia w rasowych przypadkach użycia. Spójrzmy na przykład. 

Załóżmy, że duża, dobrze znana platforma konsumencka poszukuje nowego dyrektora marketingu. Aby poradzić sobie z masą CV otrzymywanych codziennie, dział HR wdraża model AI/ML w celu usprawnienia aplikacji i procesu rekrutacji poprzez wybór kluczowych cech lub wykwalifikowanych kandydatów. 

Aby wykonać to zadanie oraz rozeznać i uporządkować każde CV, model zrobi to, nadając sens kluczowym dominującym cechom. Niestety, to również oznacza, że ​​model może pośrednio wykryć również ogólne uprzedzenia rasowe u kandydatów. Jak dokładnie miałoby się to stać? Jeśli pula kandydatów obejmuje mniejszy procent jednej rasy, maszyna pomyśli, że organizacja preferuje członków innej rasy lub dominującego zestawu danych.

Jeśli model ulegnie awarii, nawet jeśli jest to niezamierzone, firma musi zająć się awarią. Zasadniczo ktokolwiek wdrożył model, musi być w stanie obronić użycie modelu.

W przypadku zatrudniania i uprzedzeń rasowych obrońca musiałby być w stanie wyjaśnić wściekłej opinii publicznej i/lub puli aplikacji wykorzystanie zestawów danych do szkolenia modelu, początkowe pomyślne wyniki modelu opartego na tym szkoleniu, niepowodzenie model do wybrania w przypadku przypadku narożnego i jak to doprowadziło do niezamierzonej nierównowagi danych, która ostatecznie stworzyła proces filtrowania oparty na rasizmie.

Dla większości tego rodzaju szczegółowe informacje na temat sztucznej inteligencji, zestawów danych dotyczących niezrównoważenia, szkolenia modeli i ewentualnej awarii wynikającej z nadzoru nad danymi nie zostaną dobrze odebrane ani nawet zrozumiane. Ale co zostanie zrozumiane i pozostanie z tej historii? Firma XYZ stosuje przy zatrudnianiu uprzedzenia rasowe. 

Morał z tego aż nazbyt powszechnego przykładu jest taki, że niezamierzone błędy z bardzo inteligentnego modelu zdarzają się i mogą negatywnie wpłynąć na ludzi i mieć tragiczne konsekwencje. 

Dokąd prowadzi nas wyjaśnialność danych

Zamiast tłumaczyć wyniki poprzez zrozumienie złożonego modelu uczenia maszynowego, wyjaśnialność danych wykorzystuje dane do wyjaśnienia przewidywań i niepowodzeń.

Wyjaśnialność danych jest zatem połączeniem zobaczenia danych testowych i zrozumienia, co model wychwyci z tych danych. Obejmuje to zrozumienie niedostatecznie reprezentowanych próbek danych, nadreprezentowanych próbek (jak w przykładzie z zatrudnieniem) oraz przejrzystość wykrywania modelu w celu dokładnego zrozumienia prognoz i błędnych prognoz.

To zrozumienie wyjaśnialności danych nie tylko poprawi dokładność i rzetelność modelu, ale także pomoże przyspieszyć modele w szybszym tempie.

Ponieważ nadal polegamy i włączamy złożone programy AI i ML do naszego codziennego życia, rozwiązanie problemu czarnej skrzynki staje się krytyczne, szczególnie w przypadku awarii i błędnych prognoz. 

Wyjaśnialność modelu zawsze będzie miała swoje miejsce, ale wymaga kolejnej warstwy. Potrzebujemy wyjaśnialności danych, ponieważ zrozumienie tego, co widzi i czyta model, nigdy nie będzie objęte klasyczną wyjaśnialnością modelu.

Znak czasu:

Więcej z WSZECHSTRONNOŚĆ DANYCH