Ustawa równoważąca: wartość wiedzy specjalistycznej człowieka w dobie generatywnej sztucznej inteligencji - DATAVERSITY

Ustawa o równowadze: wartość wiedzy specjalistycznej w dobie generatywnej sztucznej inteligencji – DATAVERSITY

Węzeł źródłowy: 3052574

Człowiek jest uważany za najsłabsze ogniwo przedsiębiorstwa, jeśli chodzi o bezpieczeństwo. Słusznie, jako powyżej 95% incydentów związanych z cyberbezpieczeństwem jest spowodowanych błędem człowieka. Ludzie są zmienni, omylni i nieprzewidywalni, co czyni ich łatwym celem dla cyberprzestępców chcących uzyskać dostęp do systemów organizacji.  

To sprawia, że ​​nasza zależność od maszyn jest o wiele ważniejsza. Do tego momentu mogliśmy ufać maszynom, że działają z kodem jako prawdą. Mimo że zagrożenia mogą wynikać z luk w kodzie lub wad społecznych ludzkich operatorów, problemy te zazwyczaj udaje się znaleźć jednoznaczne rozwiązanie. 

Jednak wraz ze wzrostem generatywna sztuczna inteligencja (GenAI) i duże modele językowe (LLM) organizacje stoją obecnie w obliczu ataków socjotechnicznych, które mają na celu oszukanie sztucznej inteligencji do zrobienia rzeczy, do których nie była przeznaczona. W miarę jak będziemy coraz bardziej skupiać się na sztucznej inteligencji, ciekawie będzie zobaczyć, jak te nowe wzorce ataków się sprawdzają.

W obliczu tego dylematu po raz kolejny zadaniem ludzi jest poruszanie się po tym złożonym i ewoluującym krajobrazie bezpieczeństwa sztucznej inteligencji. Wzywa to CISO do jasnego informowania o zaletach i wadach sztucznej inteligencji oraz do uznania długiej listy kwestii związanych z bezpieczeństwem związanych z produktami i możliwościami opartymi na sztucznej inteligencji. 

Pospieszne wdrażanie generatywnej sztucznej inteligencji stwarza nowe wyzwania w zakresie cyberbezpieczeństwa

Zacznijmy od tego, że częstym problemem w przypadku GenAI i LLM jest nadmierne poleganie na treściach generowanych przez sztuczną inteligencję. Zaufanie treściom generowanym przez sztuczną inteligencję bez weryfikacji lub sprawdzenia pod kątem wprowadzających w błąd lub dezinformacji bez udziału lub przeoczenia człowieka może prowadzić do rozpowszechniania błędnych danych, które wpływają na błędne podejmowanie decyzji i ograniczenie krytycznego myślenia. Wiadomo, że LLM mają halucynacje, więc część dezinformacji może nawet nie wynikać ze złośliwych zamiarów.

W tym samym duchu ilość niezabezpieczonego kodu wprowadzanego w związku z ewolucją GenAI również stanie się poważnym wyzwaniem dla CISO, jeśli nie zostanie to aktywnie przewidywane. Wiadomo, że silniki AI piszą błędny kod zawierający luki w zabezpieczeniach. Bez odpowiedniego nadzoru ludzkiego GenAI umożliwia ludziom bez odpowiednich podstaw technicznych dostarczanie kodu. Prowadzi to do zwiększonego ryzyka bezpieczeństwa w całym cyklu życia oprogramowania dla organizacji korzystających z tych narzędzi w niewłaściwy sposób.

Wyciek danych to kolejny powszechny problem. W niektórych przypadkach osoby atakujące mogą skorzystać z natychmiastowego wstrzyknięcia, aby wyodrębnić poufne informacje, których model sztucznej inteligencji nauczył się od innego użytkownika. W wielu przypadkach może to być nieszkodliwe, ale złośliwe użycie z pewnością nie jest wykluczone. Nieodpowiednie podmioty mogą celowo sondować narzędzie sztucznej inteligencji za pomocą skrupulatnie opracowanych podpowiedzi, mając na celu wydobycie poufnych informacji zapamiętanych przez narzędzie, co może prowadzić do wycieku wrażliwych lub poufnych informacji.

Sztuczna inteligencja może zwiększyć niektóre luki w cyberbezpieczeństwie, ale ma znaczny potencjał do usunięcia innych

Wreszcie, rozumie się, że rozprzestrzenianie się GenAI i LLM spowoduje zmniejszenie części powierzchni ataku w naszej branży z kilku powodów. Po pierwsze, możliwość generowania kodu za pomocą GenAI obniża poprzeczkę w zakresie tego, kto może zostać inżynierem oprogramowania, co skutkuje słabszym kodem i jeszcze słabszymi standardami bezpieczeństwa. Po drugie, GenAI wymaga ogromnych ilości danych, co oznacza, że ​​skala i skutki naruszeń danych będą rosły wykładniczo. Po trzecie, jak w przypadku każdej nowej technologii, programiści mogą nie być w pełni świadomi, w jaki sposób ich wdrożenie może zostać wykorzystane lub nadużyte. 

Niemniej jednak istotne jest przyjęcie zrównoważonej perspektywy. Chociaż ułatwianie generowania kodu przez sztuczną inteligencję może budzić obawy, wnosi również pozytywne cechy do krajobrazu cyberbezpieczeństwa. Na przykład może skutecznie identyfikować luki w zabezpieczeniach, takie jak Cross-Site Scripting (XSS) lub wstrzykiwanie SQL. Ta dwoista natura podkreśla znaczenie zniuansowanego zrozumienia. Zamiast postrzegać sztuczną inteligencję wyłącznie jako szkodliwą, podkreśla uzupełniający związek między sztuczną inteligencją a zaangażowaniem człowieka w cyberbezpieczeństwo. CISO muszą zdawać sobie sprawę z powiązanego ryzyka związanego z GenAI i LLM, jednocześnie badając podejścia skoncentrowane na człowieku w celu wdrożenia GenAI i wzmocnienia swoich organizacji.

Ludzie zbierają to, co AI pozostawia po sobie

Zadaniem CISO jest nie tylko odkrywanie złożoności GenAI. Muszą utorować drogę swojej organizacji i pokazać kierownictwu, w jaki sposób ich organizacja może nadal prosperować w świecie zdominowanym przez GenAI. 

Chociaż użytkownicy końcowi są często odpowiedzialni za wiele luk w zabezpieczeniach, nie ma lepszej obrony przed cyberprzestępczością niż dobrze wyszkolony i dbający o bezpieczeństwo człowiek. Bez względu na to, jakie narzędzia do wykrywania zagrożeń posiada organizacja, w przypadku testowania oprogramowania po prostu nie da się zastąpić osoby za ekranem. 

Organizacje mogą wyprzedzić cyberprzestępców, korzystając z mocy etyczny hacking. Chociaż niektórzy wahają się, czy zapraszać hakerów do swojej sieci ze względu na przestarzałe błędne przekonania, ci przestrzegający prawa eksperci ds. cyberbezpieczeństwa najlepiej nadają się do walki ze złymi aktorami, ponieważ w przeciwieństwie do sztucznej inteligencji mogą dostać się do głów cyberataków.

W rzeczywistości hakerzy już uzupełniają zautomatyzowane narzędzia w walce z cyberprzestępcami, m.in % 92 z etyczni hakerzy twierdząc, że potrafią znaleźć luki, których nie potrafią skanery. Odsłaniając na dobre zasłonę hakowania, liderzy biznesowi będą mogli zastosować etyczny hacking i wsparcie ludzkie, aby osiągnąć skuteczniejszą równowagę między sztuczną inteligencją a ekspertami ludzkimi w walce z nowoczesną cyberprzestępczością. Nasze najnowsze Raport bezpieczeństwa wspomagany przez hakerów podkreśla to – 91% naszych klientów twierdzi, że hakerzy dostarczają bardziej skuteczne i wartościowe raporty o lukach w zabezpieczeniach niż sztuczna inteligencja lub rozwiązania skanujące. Ponieważ sztuczna inteligencja w dalszym ciągu kształtuje naszą przyszłość, społeczność etycznych hakerów będzie nadal zaangażowana w zapewnienie jej bezpiecznej integracji.

Połączenie automatyzacji z siecią wysoko wykwalifikowanych hakerów oznacza, że ​​firmy mogą wskazać krytyczne wady aplikacji, zanim zostaną one wykorzystane. Kiedy organizacje skutecznie łączą zautomatyzowane narzędzia bezpieczeństwa z etycznym hakowaniem, wypełniają luki w stale rozwijającej się powierzchni ataków cyfrowych. 

Dzieje się tak dlatego, że ludzie i sztuczna inteligencja mogą współpracować, aby poprawić produktywność zespołu ds. bezpieczeństwa: 

  1. Rozpoznanie powierzchni ataku: Nowoczesne organizacje mogą rozwijać rozległą i złożoną infrastrukturę informatyczną składającą się z różnorodnego, zarówno autoryzowanego, jak i niezatwierdzonego sprzętu i oprogramowania. Opracowanie kompleksowego indeksu zasobów IT, takich jak oprogramowanie i sprzęt, jest ważne dla ograniczenia luk w zabezpieczeniach, usprawnienia zarządzania poprawkami i zapewnienia zgodności z wymogami branżowymi. Pomaga także zidentyfikować i przeanalizować punkty, przez które osoba atakująca może obrać za cel organizację.
  2. Oceny ciągłe: Wychodząc poza bezpieczeństwo punktowe, organizacje mogą połączyć pomysłowość ekspertów ds. bezpieczeństwa ludzi z wglądem w powierzchnię ataku w czasie rzeczywistym, aby zapewnić ciągłe testowanie krajobrazu cyfrowego. Ciągłe testy penetracyjne umożliwiają zespołom IT przeglądanie wyników ciągłych symulacji, które pokazują, jak wyglądałoby naruszenie w bieżącym środowisku oraz potencjalne słabe punkty, w których zespoły mogą dostosowywać się w czasie rzeczywistym.
  3. Udoskonalenia procesu: Zaufani hakerzy mogą przekazać zespołom ds. bezpieczeństwa cenne informacje o lukach w zabezpieczeniach i zasobach, aby pomóc w udoskonaleniu procesów.

Wnioski

Ponieważ generatywna sztuczna inteligencja rozwija się w tak szybkim tempie, CISO muszą wykorzystać swoją wiedzę na temat tego, w jaki sposób ludzie mogą współpracować, aby zwiększyć bezpieczeństwo sztucznej inteligencji i uzyskać wsparcie ze strony zarządu i zespołu kierowniczego. W rezultacie organizacje mogą dysponować odpowiednim personelem i zasobami, aby skutecznie stawić czoła tym wyzwaniom. Znalezienie właściwej równowagi między szybkim wdrożeniem sztucznej inteligencji a kompleksowym bezpieczeństwem poprzez współpracę z etycznymi hakerami wzmacnia argument przemawiający za inwestowaniem w odpowiednie rozwiązania oparte na sztucznej inteligencji.

Znak czasu:

Więcej z WSZECHSTRONNOŚĆ DANYCH