Вплив ШІ на кібербезпеку - DATAVERSITY

Вплив ШІ на кібербезпеку – DATAVERSITY

Вихідний вузол: 2995031

Штучний інтелект привернув велику увагу засобів масової інформації за будь-що: від забирання робочих місць до поширення дезінформації та порушення авторських прав, але вплив штучного інтелекту на кібербезпеку може бути найактуальнішою проблемою.

Вплив штучного інтелекту на команди безпеки передбачувано двосічний. При правильному застосуванні він може бути потужним примножувачем сили для практиків кібербезпеки за допомогою таких засобів, як обробка величезних обсягів даних на швидкості комп’ютера, пошук зв’язків між віддаленими точками даних, виявлення закономірностей, виявлення атак і прогнозування розвитку атак. Але, як добре знають фахівці з безпеки, ШІ не завжди правильно застосовується. Він підсилює і без того значну лінійку загроз кібербезпеці, від компрометації особистих даних і фішингу до програм-вимагачів і атак на ланцюги поставок.

CISO та групи безпеки повинні розуміти як переваги, так і ризики штучного інтелекту, що вимагає суттєвого перебалансування навичок. Інженери з безпеки, наприклад, повинні осягнути основи машинного навчання, якість моделі та упередження, рівні надійності та показники продуктивності. Вчені-дані потрібно вивчити основи кібербезпеки, шаблони атак і моделювання ризиків, щоб ефективно сприяти гібридним командам.

Моделі штучного інтелекту потребують належного навчання, щоб сприяти кібербезпеці

Завдання протидії поширенню загроз, створених штучним інтелектом, ускладнює завдання для CISO та вже перевантажених груп безпеки, які мають мати справу не лише з новими складними фішинговими кампаніями, розробленими велика модель мови (LLM), як ChatGPT, але все одно потрібно турбуватися про невиправлений сервер у DMZ, який може становити більшу загрозу.

ШІ, з іншого боку, може заощадити багато часу та зусиль команд на оцінку ризиків і виявлення загроз. Це також може допомогти з відповіддю, хоча це потрібно робити обережно. Модель штучного інтелекту може залучати аналітиків, щоб дізнатися, як вони сортують інциденти, а потім або виконувати ці завдання самостійно, або визначати пріоритетність випадків для перевірки людьми. Але команди повинні бути впевнені, що потрібні люди дають інструкції ШІ.

Багато років тому, наприклад, я провів експеримент, у якому 10 аналітиків різного рівня кваліфікації перевірили 100 випадків підозрюваного викрадання даних. Двоє старших аналітиків правильно визначили всі позитивні та негативні сторони, троє менш досвідчених аналітиків помилилися майже в усіх випадках, а решта п’ять отримали випадкові результати. Якою б хорошою не була модель штучного інтелекту, вона буде марною, якщо її навчатиме така команда.

ШІ схожий на потужний автомобіль: він може творити чудеса в руках досвідченого водія або завдати великої шкоди в руках недосвідченого. Це одна зі сфер, де брак навичок може вплинути на вплив ШІ на кібербезпеку.

Як технічні директори можуть вибрати рішення ШІ?

Враховуючи ажіотаж навколо штучного інтелекту, у організацій може виникнути спокуса просто поспішити з впровадженням цієї технології. Але крім належного навчання ШІ, є питання, на які повинні відповісти технічні директори, починаючи з питань придатності:

  • Чи вписується ШІ в екосистему організації? Це включає платформу, зовнішні компоненти, такі як база даних і пошукова система, безкоштовне програмне забезпечення з відкритим вихідним кодом і ліцензування, а також безпеку та сертифікацію організації, резервне копіювання та відновлення після відмови. 
  • Чи масштабується штучний інтелект відповідно до розміру підприємства?
  • Які навички потрібні групі безпеки, щоб підтримувати та керувати ШІ?

Технічні директори також повинні відповідати на питання, що стосуються рішення ШІ: 

  • Які із заявлених функцій конкретного продукту ШІ відповідають вашим бізнес-цілям?
  • Чи можна досягти такої ж функціональності за допомогою існуючих інструментів?
  • Чи справді рішення виявляє загрози?

На останнє запитання може бути важко відповісти, оскільки зловмисні події в кібербезпеці відбуваються в мізерному масштабі порівняно з законною діяльністю. У обмеженому дослідженні підтвердження концепції з використанням живих даних інструмент ШІ може нічого не виявити, якщо нічого немає. Постачальники часто використовують синтетичні дані або атаки Red Team, щоб продемонструвати можливості штучного інтелекту, але залишається питання, чи він демонструє справжню здатність виявлення чи просто підтверджує припущення, згідно з якими були згенеровані індикатори.

Важко визначити, чому штучний інтелект вважає щось нападом, оскільки алгоритми штучного інтелекту, по суті, є чорними скриньками, які все ще не можуть пояснити, як вони дійшли певного висновку, як продемонструвало DARPA Пояснюваний ШІ (XAI) програми.

Зменшення ризиків ШІ

Рішення штучного інтелекту настільки добре, наскільки добре воно працює. Щоб забезпечити етичну поведінку, моделі штучного інтелекту слід навчати на етичних даних, а не на гуртовому зборі сміття, яке є у Всесвітній павутині. І будь-який дослідник даних знає, що створення добре збалансованого, неупередженого, чистого набору даних для навчання моделі є складним, нудним і непривабливим завданням. 

Через це моделями штучного інтелекту, включаючи LLM, можна врешті-решт керувати таким же чином, як вони найкраще слугували б кібербезпеці – як спеціалізовані моделі (на відміну від «всезнаючих» моделей загального призначення), які обслуговують певні сфери та навчаються на дані, підібрані експертами в цій галузі. 

Спроба цензурувати штучний інтелект у відповідь на обурення ЗМІ в цей момент не вирішить проблему. Тільки старанна робота зі створення надійних наборів даних може зробити це. Поки компанії штучного інтелекту та венчурні інвестори, які їх підтримують, не приймуть цей підхід як єдиний спосіб надавати респектабельний контент, це сміття всередину/викидання. 

Чи слід більш регулювати розвиток ШІ?

Розробка ШІ породила багато законні побоювання про все, від дипфейків і клонування голосу до просунутого фішингу/вішинга/смішинга, роботів-вбивць і навіть можливості AI апокаліпсис. Еліезер Юдковскі, одне з найповажніших імен у галузі загального штучного інтелекту (AGI), нещодавно звернувся до “закрити все це”, заявивши, що запропонованого шестимісячного мораторію недостатньо.

Але ви не можете зупинити розвиток нових технологій, факт, який був очевидним ще з часів алхіміків у стародавні часи. Отже, з практичної точки зору, що можна зробити, щоб уникнути виходу з-під контролю штучного інтелекту та зменшити ризик вимирання, спричиненого штучним інтелектом? Відповідь полягає в тому, що багато тих самих наборів засобів контролю використовуються в інших сферах, які мають потенціал для створення зброї: 

  • Прозорі дослідження. Розробка штучного інтелекту з відкритим кодом не лише стимулює інновації та демократизує доступ, але й має багато переваг у безпеці, від виявлення недоліків у безпеці та небезпечних напрямків розробки до створення захисту від потенційних зловживань. Big Tech наразі підтримує зусилля з відкритим кодом, але це може змінитися, якщо конкуренція посилиться. Можливо, знадобляться законодавчі заходи для збереження доступу до відкритого коду.
  • Містить експериментування. Усі експерименти з достатньо розвиненим штучним інтелектом мають бути закриті із суворим дотриманням процедур безпеки та безпеки. Це не безпомилкові заходи, але вони можуть змінити місцеве хвилювання та глобальну катастрофу.
  • Вимкніть перемикачі. Подібно до антидотів і вакцин, контрзаходи проти невідомих або руйнівних варіантів штучного інтелекту мають бути невід’ємною частиною процесу розробки. Навіть розробники програм-вимагачів вбудовують перемикач блокування. 
  • Регулювати спосіб його використання. ШІ — це технологія, яку можна застосувати на благо людства або зловживати нею з катастрофічними наслідками. Регулювання його додатків є завданням світових урядів, і терміновість набагато вища, ніж необхідність цензури наступної версії ChatGPT. The Закон ЄС про ШІ це добре сформульована, лаконічна основа, спрямована на запобігання зловживанням без пригнічення інновацій. США Білль про права AI і нещодавній виконавчий наказ щодо штучного інтелекту є менш конкретними та, здається, більше зосереджені на політкоректності, ніж на питаннях належної розробки моделі, навчання та стримування. Однак ці заходи – лише початок. 

Висновок

Штучний інтелект приходить у сферу кібербезпеки незалежно від того, хочуть цього CISO чи ні, і він принесе як значні переваги, так і ризики для сфери кібербезпеки, особливо з можливим появою постквантова криптографія. Як мінімум, керівники інформаційних технологій повинні витратити час, щоб зрозуміти переваги розкручених інструментів ШІ та загрози атак, керованих ШІ. Те, чи інвестують вони гроші в штучний інтелект, значною мірою залежить від відчутних переваг продуктів безпеки штучного інтелекту, оприлюднених наслідків атак штучного інтелекту та, певною мірою, їх особистого досвіду роботи з ChatGPT. 

Проблема, з якою стикаються CISO, полягає в тому, як ефективно та відповідально впровадити ШІ.

Часова мітка:

Більше від ПЕРЕДАЧА