Skynet Hej? Czego można się spodziewać w przypadku zagrożeń bezpieczeństwa sztucznej inteligencji nowej generacji

Skynet Hej? Czego można się spodziewać w przypadku zagrożeń bezpieczeństwa sztucznej inteligencji nowej generacji

Węzeł źródłowy: 3037761

W miarę szybkiego postępu innowacji w zakresie sztucznej inteligencji (AI) rok 2024 będzie kluczowym momentem dla organizacji i organów zarządzających na ustanowienie standardów bezpieczeństwa, protokołów i innych zabezpieczeń, aby zapobiec wyprzedzeniu sztucznej inteligencji – ostrzegają eksperci ds. bezpieczeństwa.

Duże modele językowe (LLM), oparte na wyrafinowanych algorytmach i ogromnych zbiorach danych, wykazują niezwykłe zrozumienie języka i możliwości konwersacyjne na poziomie ludzkim. Jedną z najbardziej wyrafinowanych dotychczas platform jest GPT-4 OpenAI, która oferuje zaawansowane możliwości wnioskowania i rozwiązywania problemów oraz obsługuje firmowego bota ChatGPT. Firma we współpracy z Microsoftem rozpoczęła prace nad GPT-5, o czym poinformował dyrektor generalny Sam Altman pójdzie znacznie dalej — do tego stopnia, że ​​posiada „superinteligencję”.

Modele te reprezentują ogromny potencjał znacznego wzrostu produktywności i wydajności dla organizacji, ale eksperci zgadzają się, że nadszedł czas na całą branżę aby zaradzić nieodłącznym zagrożeniom bezpieczeństwa jakie stwarza ich rozwój i wdrożenie. Rzeczywiście, najnowsze badania przeprowadzone przez Writerbuddy AI, która oferuje narzędzie do pisania treści oparte na sztucznej inteligencji, odkryła, że ​​ChatGPT ma już 14 miliardów odwiedzin i liczba ta wciąż rośnie.

W miarę jak organizacje zmierzają w kierunku postępu w zakresie sztucznej inteligencji, „powinno to łączyć się z rygorystycznymi względami etycznymi i oceną ryzyka” – mówi Gal Ringel, dyrektor generalny firmy MineOS zajmującej się ochroną prywatności i bezpieczeństwem opartej na sztucznej inteligencji.

Czy sztuczna inteligencja jest zagrożeniem egzystencjalnym?

Obawy dotyczące bezpieczeństwa nowej generacji sztucznej inteligencji zaczęły nasilać się w marcu wraz z listem otwartym podpisanym przez prawie 34,000 XNUMX czołowych technologów, w którym wezwano do zaprzestania rozwoju generatywnych systemów sztucznej inteligencji potężniejszych niż GPT-4 OpenAI. W piśmie przytoczono „głębokie ryzyko” dla społeczeństwa, jakie stwarza ta technologia, oraz „wymykający się spod kontroli wyścig laboratoriów sztucznej inteligencji w celu opracowania i wdrożenia coraz potężniejszych cyfrowych umysłów, których nikt – nawet ich twórcy – nie jest w stanie zrozumieć, przewidzieć ani niezawodną kontrolę.”

Pomimo tych dystopijnych obaw większość ekspertów ds. bezpieczeństwa nie przejmuje się zbytnio scenariuszem zagłady, w którym maszyny staną się mądrzejsze od ludzi i przejmą władzę nad światem.

„W liście otwartym zwrócono uwagę na uzasadnione obawy dotyczące szybkiego rozwoju i potencjalnych zastosowań sztucznej inteligencji w szerokim sensie tego, czy jest to dobre dla ludzkości” – mówi Matt Wilson, dyrektor ds. inżynierii sprzedaży w firmie Netrix zajmującej się bezpieczeństwem cybernetycznym. „Chociaż w niektórych scenariuszach publiczne wersje narzędzi AI robią wrażenie, publiczne wersje narzędzi AI nie wydają się aż tak groźne”.

Niepokojący jest fakt, że rozwój i wdrażanie sztucznej inteligencji postępują zbyt szybko, aby można było właściwie zarządzać ryzykiem – zauważają naukowcy. „Nie możemy ponownie zamknąć pokrywy puszki Pandory” – zauważa Patrick Harr, dyrektor generalny firmy SlashNext, dostawcy zabezpieczeń AI.

Co więcej, sama „próba zatrzymania tempa innowacji w kosmosie nie pomoże złagodzić” związane z nimi ryzyko, którym należy się zająć osobno, zauważa Marcus Fowler, dyrektor generalny firmy DarkTrace Federal zajmującej się bezpieczeństwem sztucznej inteligencji. Nie oznacza to, że rozwój sztucznej inteligencji powinien być kontynuowany bez kontroli – mówi. Wręcz przeciwnie, tempo oceny ryzyka i wdrażania odpowiednich zabezpieczeń powinno odpowiadać tempu szkolenia i rozwoju LLM.

„Technologia sztucznej inteligencji szybko się rozwija, dlatego rządy i organizacje korzystające ze sztucznej inteligencji muszą również przyspieszyć dyskusje na temat bezpieczeństwa sztucznej inteligencji” – wyjaśnia Fowler.

Zagrożenia generatywnej sztucznej inteligencji

Istnieje kilka powszechnie uznanych zagrożeń dla generatywnej sztucznej inteligencji, które wymagają rozważenia i będą się nasilać w miarę zwiększania się inteligencji przyszłych generacji technologii. Na szczęście dla ludzi żaden z nich jak dotąd nie przedstawia scenariusza zagłady science-fiction, w którym sztuczna inteligencja spiskuje, by zniszczyć swoich twórców.

Zamiast tego obejmują znacznie bardziej znane zagrożenia, takie jak wycieki danych, potencjalnie poufnych informacji biznesowych; niewłaściwe użycie do szkodliwej działalności; i niedokładne wyniki, które mogą wprowadzić w błąd lub zdezorientować użytkowników, co ostatecznie skutkuje negatywnymi konsekwencjami biznesowymi.

Ponieważ LLM wymagają dostępu do ogromnych ilości danych, aby zapewnić dokładne i kontekstowo istotne wyniki, wrażliwe informacje mogą zostać przypadkowo ujawnione lub niewłaściwie wykorzystane.

„Głównym ryzykiem jest to, że pracownicy je karmią z poufnymi informacjami biznesowymi prosząc o napisanie planu lub przeformułowanie wiadomości e-mail lub prezentacji biznesowych zawierających zastrzeżone informacje firmy” – zauważa Ringel.

Z punktu widzenia cyberataku przestępcy znaleźli już niezliczone sposoby na uzbrojenie ChatGPT i innych systemów sztucznej inteligencji. Jednym ze sposobów było wykorzystanie tych modeli do tworzenia wyrafinowanych ataków na firmową pocztę e-mail (BEC) i innych ataków phishingowych, które wymagają tworzenia spersonalizowanych wiadomości zaprojektowanych z myślą o sukcesie, opartych na inżynierii społecznej.

„Dzięki złośliwemu oprogramowaniu ChatGPT umożliwia cyberprzestępcom tworzenie nieskończonej liczby odmian kodu, aby być o krok przed silnikami wykrywającymi złośliwe oprogramowanie” – mówi Harr.

Halucynacje AI stanowią również poważne zagrożenie dla bezpieczeństwa i pozwalają złośliwym podmiotom uzbrajać technologię opartą na LLM, taką jak ChatGPT, w unikalny sposób. Halucynacja sztucznej inteligencji to prawdopodobna reakcja sztucznej inteligencji, która jest niewystarczająca, stronnicza lub całkowicie nieprawdziwa. „Fikcyjne lub inne niepożądane reakcje mogą nakłonić organizacje do błędnego podejmowania decyzji, procesów i wprowadzającej w błąd komunikacji” – ostrzega Avivah Litan, wiceprezes firmy Gartner.

Podmioty zagrażające mogą również wykorzystywać te halucynacje do zatruwania LLM i „generowania konkretnych dezinformacji w odpowiedzi na pytanie” – zauważa Michael Rinehart, wiceprezes ds. sztucznej inteligencji w firmie Securiti, dostawcy bezpieczeństwa danych. „Można to rozszerzyć na generowanie podatnego na ataki kodu źródłowego i być może na modele czatów, które mogą kierować użytkowników witryny do niebezpiecznych działań”.

Napastnicy mogą posunąć się nawet tak daleko, jak to możliwe publikować złośliwe wersje pakietów oprogramowania które LLM może polecić twórcy oprogramowania, wierząc, że jest to uzasadnione rozwiązanie problemu. W ten sposób napastnicy mogą dodatkowo wyposażyć sztuczną inteligencję w celu przeprowadzenia ataków na łańcuch dostaw.

Way Forward

Zarządzanie tym ryzykiem będzie wymagało wyważonych i zbiorowych działań, zanim innowacje w zakresie sztucznej inteligencji przekroczą zdolność branży do kontrolowania go – zauważają eksperci. Ale mają też pomysły, jak rozwiązać problem sztucznej inteligencji.

Harr wierzy w „walcz z AI z A”, w ramach której „postępy w rozwiązaniach w zakresie bezpieczeństwa i strategiach mających na celu udaremnianie zagrożeń napędzanych przez sztuczną inteligencję muszą rozwijać się w równym lub większym tempie.

„Ochrona cyberbezpieczeństwa musi wykorzystywać sztuczną inteligencję, aby skutecznie zwalczać zagrożenia cybernetyczne przy użyciu technologii sztucznej inteligencji” – dodaje. „Dla porównania starsza technologia zabezpieczeń nie ma szans w walce z tymi atakami”.

Jednak organizacje powinny również przyjąć wyważone podejście do wdrażania sztucznej inteligencji – w tym Rozwiązania bezpieczeństwa oparte na sztucznej inteligencji — aby nie wprowadzili więcej zagrożeń do swojego otoczenia, ostrzega Wilson z Netrix.

„Zrozum, czym jest sztuczna inteligencja, a czym nie jest” – radzi. „Rzuć wyzwanie dostawcom, którzy twierdzą, że wykorzystują sztuczną inteligencję, aby opisali, co ona robi, w jaki sposób ulepsza ich rozwiązanie i dlaczego jest to ważne dla Twojej organizacji”.

Rinehart firmy Securiti oferuje dwupoziomowe podejście do wprowadzania sztucznej inteligencji do środowiska poprzez wdrażanie ukierunkowanych rozwiązań, a następnie umieszczanie barier ochronnych bezpośrednio przed narażeniem organizacji na niepotrzebne ryzyko.

„Najpierw zastosuj modele specyficzne dla aplikacji, potencjalnie rozszerzone o bazy wiedzy, które są dostosowane tak, aby zapewniały wartość w konkretnych przypadkach użycia” – mówi. „Następnie… wdroż system monitorowania, aby chronić te modele, analizując wiadomości do nich i od nich pod kątem kwestii prywatności i bezpieczeństwa”.

Eksperci zalecają również utworzenie zasad i procedur bezpieczeństwa dotyczących sztucznej inteligencji przed jej wdrożeniem, a nie po namyśle w celu ograniczenia ryzyka. Mogą nawet powołać dedykowanego specjalistę ds. ryzyka AI lub grupę zadaniową, która będzie nadzorować zgodność.

Poza przedsiębiorstwem cała branża musi również podjąć kroki w celu ustanowienia standardów i praktyk bezpieczeństwa związanych ze sztuczną inteligencją, które będzie mogła przyjąć każda osoba opracowująca i korzystająca z tej technologii – co będzie wymagało wspólnych działań zarówno sektora publicznego, jak i prywatnego w skali globalnej , mówi Fowler z DarkTrace Federal.

cytuje wytyczne dotyczące budowania bezpiecznych systemów AI opublikowane wspólnie przez amerykańską Agencję ds. Bezpieczeństwa Cyberbezpieczeństwa i Infrastruktury (CISA) oraz brytyjskie Narodowe Centrum Cyberbezpieczeństwa (NCSC) jako przykład rodzaju wysiłków, które powinny towarzyszyć ciągłej ewolucji sztucznej inteligencji.

„Zasadniczo” – mówi Rinehart z Securiti – „rok 2024 będzie świadkiem szybkiej adaptacji zarówno tradycyjnych zabezpieczeń, jak i najnowocześniejszych technik sztucznej inteligencji w celu ochrony użytkowników i danych w wyłaniającej się erze generatywnej sztucznej inteligencji”.

Znak czasu:

Więcej z Mroczne czytanie