Korzystanie z własnych danych w celu złagodzenia problemów związanych z prywatnością sztucznej inteligencji i zwiększenia zaufania do sztucznej inteligencji | Wiadomości i raporty dotyczące IoT Now

Korzystanie z własnych danych w celu złagodzenia problemów związanych z prywatnością sztucznej inteligencji i zwiększenia zaufania do sztucznej inteligencji | Wiadomości i raporty dotyczące IoT Now

Węzeł źródłowy: 3068504

Dzięki modelom AI zdolnym do wykrywania wzorców i przewidywania, których ręczne wykonanie byłoby trudne lub niemożliwe dla człowieka, potencjalne zastosowania narzędzi takich jak ChatGPT w branży opieki zdrowotnej, finansów i obsługi klienta są ogromne.

Chociaż priorytetami organizacji w zakresie sztucznej inteligencji powinna być ocena możliwości, jakie generatywne narzędzia AI oferują ich przedsiębiorstwom pod względem przewagi konkurencyjnej, temat prywatności danych stał się głównym problemem. Zarządzanie odpowiedzialnym wykorzystaniem sztucznej inteligencji, która może generować stronnicze wyniki, wymaga starannego rozważenia. 

Chociaż potencjalne korzyści płynące z tych modeli są ogromne, organizacje powinny dokładnie przeanalizować względy etyczne i praktyczne, aby korzystać ze sztucznej inteligencji w sposób odpowiedzialny i zapewniając bezpieczną ochronę danych AI. Optymalizując ogólne doświadczenie użytkownika za pomocą ChatGPT, organizacje mogą ulepszyć swoje Wiarygodność sztucznej inteligencji

Obawy dotyczące prywatności AI 

Podobnie jak wiele innych najnowocześniejszych technologii, sztuczna inteligencja niewątpliwie wywoła pewne pytania i wyzwania dla tych, którzy chcą wdrożyć ją w swoich stosach technologii. Faktycznie, ankieta przeprowadzona przez Postęp ujawniło, że 65% firm i dyrektorów IT uważa obecnie, że w ich organizacjach występuje błąd w zakresie danych, a 78% twierdzi, że sytuacja ta będzie się pogłębiać w miarę wzrostu stosowania sztucznej inteligencji. 

Prawdopodobnie największym problemem związanym z prywatnością jest wykorzystywanie danych prywatnych firm w połączeniu z publicznymi i wewnętrznymi platformami sztucznej inteligencji. Może to być na przykład organizacja opieki zdrowotnej przechowująca poufne dane pacjentów lub dane dotyczące wynagrodzeń pracowników dużej korporacji. 

Aby sztuczna inteligencja była najbardziej skuteczna, potrzebna jest duża próbka wysokiej jakości danych publicznych i/lub prywatnych, a organizacje mające dostęp do poufnych danych, takie jak firmy z branży opieki zdrowotnej posiadające dokumentację medyczną, mają przewagę konkurencyjną przy budowaniu rozwiązań opartych na sztucznej inteligencji. Przede wszystkim organizacje dysponujące tak wrażliwymi danymi muszą wziąć pod uwagę obowiązujące wymogi etyczne i regulacyjne prywatność danych, uczciwość, wyjaśnialność, przejrzystość, solidność i dostęp.  

Duże modele językowe (LLM) to potężne modele sztucznej inteligencji szkolone na danych tekstowych w celu wykonywania różnych zadań przetwarzania języka naturalnego, w tym tłumaczenia języka, odpowiadania na pytania, podsumowań i analizy nastrojów. Modele te mają na celu analizę języka w sposób naśladujący ludzką inteligencję, umożliwiając przetwarzanie, rozumienie i generowanie ludzkiej mowy. 

Zagrożenia dla prywatnych danych podczas korzystania ze sztucznej inteligencji 

Jednakże z tymi złożonymi modelami wiążą się wyzwania etyczne i techniczne, które mogą stwarzać ryzyko dla dokładności danych, naruszenia praw autorskich i potencjalnych spraw o zniesławienie. Niektóre z wyzwań związanych z efektywnym wykorzystaniem sztucznej inteligencji chatbota obejmują: 

  • Halucynacje – W sztucznej inteligencji halucynacja ma miejsce, gdy zgłasza użytkownikowi odpowiedzi wypełnione błędami, a te są zbyt powszechne. Sposób, w jaki LLM przewidują następne słowo, sprawia, że ​​odpowiedzi wydają się wiarygodne, podczas gdy informacje mogą być niekompletne lub fałszywe. Na przykład, jeśli użytkownik zapyta chatbota o średni przychód konkurencji, liczby te mogą być odbiegające od podanych.  
  • Stronniczość danych – LLM mogą również wystawiać uprzedzeniaco oznacza, że ​​mogą generować wyniki odzwierciedlające błędy w danych szkoleniowych, a nie obiektywną rzeczywistość. Na przykład model językowy wytrenowany na zbiorze danych składającym się głównie z mężczyzn może generować stronnicze wyniki dotyczące tematów związanych z płcią. 
  • Rozumowanie/zrozumienie – LLM mogą również potrzebować pomocy przy zadaniach wymagających głębszego rozumowania lub zrozumienia złożonych koncepcji. LLM można przeszkolić w zakresie odpowiadania na pytania wymagające szczegółowego zrozumienia kultury lub historii. Modele mogą utrwalać stereotypy lub dostarczać dezinformacji, jeśli nie są skutecznie przeszkolone i monitorowane. 

Oprócz tego inne zagrożenia mogą obejmować odcięcia danych, czyli sytuację, w której pamięć modelu jest zazwyczaj nieaktualna. Innym możliwym wyzwaniem jest zrozumienie, w jaki sposób LLM wygenerował swoją odpowiedź, ponieważ sztuczna inteligencja nie jest skutecznie przeszkolona w zakresie pokazywania swojego rozumowania użytego do skonstruowania odpowiedzi. 

Wykorzystanie wiedzy semantycznej do dostarczania wiarygodnych danych 

Zespoły techniczne szukają pomocy w korzystaniu z prywatnych danych dla ChatGPT. Pomimo wzrostu dokładności i wydajności, LLM, nie mówiąc już o ich użytkownikach, nadal mogą potrzebować pomocy w uzyskaniu odpowiedzi. Zwłaszcza, że ​​danym może brakować kontekstu i znaczenia. Odpowiedzią jest mocne, bezpieczne, przejrzyste i regulowane rozwiązanie do zarządzania wiedzą oparte na sztucznej inteligencji. Dzięki platformie danych semantycznych użytkownicy mogą zwiększyć dokładność i wydajność, wprowadzając zarządzanie.  

Uzyskując odpowiedź będącą kombinacją odpowiedzi ChatGPT potwierdzonej wiedzą semantyczną z platformy danych semantycznych, połączone wyniki umożliwią LLM i użytkownikom łatwy dostęp i sprawdzenie wyników pod kątem treści źródłowej i zdobytej wiedzy MŚP. 

Dzięki temu narzędzie AI może przechowywać dane ustrukturyzowane i nieustrukturyzowane, a także przechwytywać treści ekspertów merytorycznych (SME) za pomocą intuicyjnego interfejsu graficznego. Wyodrębniając fakty znalezione w danych i oznaczając prywatne dane wiedzą semantyczną, pytania lub dane wejściowe użytkowników oraz konkretne odpowiedzi ChatGPT można również oznaczyć tą wiedzą.  

Ochrona wrażliwych danych może uwolnić prawdziwy potencjał sztucznej inteligencji 

Podobnie jak w przypadku wszystkich technologii, ochrona przed nieoczekiwanymi wejściami lub sytuacjami jest jeszcze ważniejsza w przypadku LLM. Jeśli pomyślnie sprostamy tym wyzwaniom, wiarygodność naszych rozwiązań wzrośnie wraz z zadowoleniem użytkowników, co ostatecznie doprowadzi do sukcesu rozwiązania. 

Pierwszym krokiem w badaniu wykorzystania sztucznej inteligencji w swojej organizacji będą specjaliści ds. IT i bezpieczeństwa, którzy będą musieli poszukać sposobów ochrony wrażliwych danych, jednocześnie wykorzystując je do optymalizacji wyników dla swojej organizacji i jej klientów. 

Matthieu Jonglez, wiceprezes ds. technologii – platformy aplikacji i danych w firmie Progress.Matthieu Jonglez, wiceprezes ds. technologii – platformy aplikacji i danych w firmie Progress.

Artykuł autorstwa Matthieu Jongleza, wiceprezesa ds. technologii – platformy aplikacji i danych pod adresem postępSS.

Skomentuj ten artykuł poniżej lub poprzez X: @IoTNow_

Znak czasu:

Więcej z IoT teraz