Sztuczna inteligencja i bezpieczeństwo: jest to skomplikowane, ale nie musi | Wiadomości i raporty dotyczące IoT Now

Sztuczna inteligencja i bezpieczeństwo: jest to skomplikowane, ale nie musi tak być | Wiadomości i raporty dotyczące IoT Now

Węzeł źródłowy: 3071147

Sztuczna inteligencja cieszy się coraz większą popularnością i tendencja ta będzie się utrzymywać. Jest to wspierane przez Gartner który stwierdza, że ​​około 80% przedsiębiorstw będzie korzystało z generatywnej sztucznej inteligencji (GenAI) interfejsów programowania aplikacji (API) lub modeli do 2026 r. Sztuczna inteligencja jest jednak terminem szerokim i wszechobecnym i w wielu przypadkach obejmuje szereg technologii. Niemniej jednak sztuczna inteligencja stanowi przełom w zakresie możliwości przetwarzania logiki w inny sposób, co przyciąga uwagę zarówno przedsiębiorstw, jak i konsumentów, którzy obecnie eksperymentują z różnymi formami sztucznej inteligencji. Jednocześnie technologia ta przyciąga podobną uwagę ze strony podmiotów zajmujących się zagrożeniami, które zdają sobie sprawę, że może to stanowić słabość w zabezpieczeniach firmy, a jednocześnie może być narzędziem pomagającym firmom identyfikować te słabości i zaradzić im.

Wyzwania bezpieczeństwa AI

Jednym ze sposobów wykorzystania sztucznej inteligencji przez firmy jest przeglądanie dużych zbiorów danych w celu identyfikacji wzorców i odpowiedniej sekwencji danych. Osiąga się to poprzez tworzenie tabelarycznych zbiorów danych, które zazwyczaj zawierają wiersze i wiersze danych. Chociaż przynosi to znaczne korzyści dla firm, od poprawy wydajności po identyfikację wzorców i spostrzeżeń, zwiększa również ryzyko bezpieczeństwa, ponieważ w przypadku wystąpienia naruszenia dane te są sortowane w sposób łatwy do wykorzystania przez podmioty zagrażające.

Dalsze zagrożenia powstają w przypadku korzystania z technologii modelu dużego języka (LLM), które usuwają bariery bezpieczeństwa, gdy dane są umieszczane w domenie publicznej i każdy, kto korzysta z tej technologii, może się na nią natknąć i z niej skorzystać. Ponieważ LLM jest w rzeczywistości botem, który nie rozumie szczegółów, generuje najbardziej prawdopodobną odpowiedź w oparciu o prawdopodobieństwo, korzystając z dostępnych informacji. W związku z tym wiele firm uniemożliwia pracownikom umieszczanie jakichkolwiek danych firmowych w narzędziach takich jak ChatGPT, aby zapewnić bezpieczeństwo danych w firmie.

Korzyści związane z bezpieczeństwem AI

Chociaż sztuczna inteligencja może stanowić potencjalne ryzyko dla firm, może również stanowić część rozwiązania. Ponieważ sztuczna inteligencja przetwarza informacje inaczej niż ludzie, może inaczej spojrzeć na problemy i zaproponować przełomowe rozwiązania. Sztuczna inteligencja produkuje na przykład lepsze algorytmy i potrafi rozwiązywać problemy matematyczne, z którymi człowiek boryka się od wielu lat. W związku z tym, jeśli chodzi o bezpieczeństwo informacji, królują algorytmy Sztuczna inteligencja, uczenie maszynowe (ML) lub podobną technologię obliczeń kognitywnych, mogą znaleźć sposób na zabezpieczenie danych.

To prawdziwa zaleta sztucznej inteligencji, ponieważ może ona nie tylko identyfikować i sortować ogromne ilości informacji, ale także identyfikować wzorce umożliwiające organizacjom dostrzeżenie rzeczy, których nigdy wcześniej nie zauważyły. Wprowadza to zupełnie nowy element do bezpieczeństwa informacji. Chociaż sztuczna inteligencja będzie wykorzystywana przez podmioty stwarzające zagrożenie jako narzędzie poprawiające skuteczność włamań do systemów, będzie ona również wykorzystywana przez etycznych hakerów do poszukiwania sposobów poprawy bezpieczeństwa, co będzie bardzo korzystne dla przedsiębiorstw.

Wyzwanie pracowników i bezpieczeństwa

Pracownicy, którzy dostrzegają korzyści płynące ze sztucznej inteligencji w swoim życiu osobistym, korzystają z takich narzędzi jak: ChatGPT w celu poprawy ich zdolności do wykonywania funkcji zawodowych. Jednocześnie pracownicy ci zwiększają złożoność bezpieczeństwa danych. Firmy muszą mieć świadomość, jakie informacje pracownicy umieszczają na tych platformach i jakie zagrożenia się z tym wiążą.

Ponieważ rozwiązania te przyniosą korzyści w miejscu pracy, firmy mogą rozważyć umieszczenie danych niewrażliwych w systemach, aby ograniczyć ekspozycję wewnętrznych zbiorów danych, jednocześnie zwiększając wydajność całej organizacji. Organizacje muszą jednak zdać sobie sprawę, że nie mogą mieć obu korzyści, a dane, które umieszczają w takich systemach, nie pozostaną prywatne. Z tego powodu firmy będą musiały dokonać przeglądu swoich polityk bezpieczeństwa informacji i określić, w jaki sposób chronić wrażliwe dane, jednocześnie zapewniając pracownikom dostęp do danych krytycznych.

Nie wrażliwe, ale przydatne dane

Firmy są świadome wartości, jaką może wnieść sztuczna inteligencja, jednocześnie dodając: ryzyko bezpieczeństwa do miksu. Aby zyskać wartość na tej technologii, zachowując jednocześnie prywatność danych, bada się sposoby wdrożenia zanonimizowanych danych, na przykład przy użyciu pseudonimizacji, która zastępuje informacje umożliwiające identyfikację pseudonimem lub wartością i nie pozwala na bezpośrednią identyfikację osoby fizycznej.

Innym sposobem, w jaki firmy mogą chronić dane, jest generatywna sztuczna inteligencja do przetwarzania danych syntetycznych. Na przykład, jeśli firma posiada zbiór danych klientów i musi udostępnić go stronie trzeciej w celu analizy i spostrzeżeń, wskazuje na zbiór danych syntetyczny model generowania danych. Model ten nauczy się wszystkiego o zbiorze danych, zidentyfikuje wzorce na podstawie informacji, a następnie wygeneruje zbiór danych zawierający fikcyjne osoby, które nie reprezentują nikogo w rzeczywistych danych, ale pozwalają odbiorcy przeanalizować cały zbiór danych i dostarczyć dokładne informacje. Oznacza to, że firmy mogą udostępniać fałszywe, ale dokładne informacje, bez ujawniania wrażliwych lub prywatnych danych. Tjego podejście pozwala na wykorzystanie ogromnych ilości informacji przez modele uczenia maszynowego do celów analitycznych, a w niektórych przypadkach do testowania danych na potrzeby programowania.

Dzięki kilku metodom ochrony danych dostępnych obecnie dla przedsiębiorstw wartość technologii sztucznej inteligencji można wykorzystać, mając pewność, że dane osobowe pozostaną bezpieczne. Jest to istotne dla firm, ponieważ doświadczają one prawdziwych korzyści, jakie przynoszą dane w zakresie poprawy wydajności, podejmowania decyzji i ogólnego doświadczenia klienta.

Artykuł autorstwa Clyde'a Williamsona, głównego architekta bezpieczeństwa i Nathana Vegi, wiceprezesa ds. marketingu produktów i strategii w Protegrity.

Skomentuj ten artykuł poniżej lub poprzez X: @IoTNow_

Znak czasu:

Więcej z IoT teraz