ШІ та безпека: це складно, але не обов’язково | IoT Now Новини та звіти

ШІ та безпека: це складно, але не обов’язково | IoT Now Новини та звіти

Вихідний вузол: 3071147

Популярність штучного інтелекту зростає, і ця тенденція лише продовжиться. Це підтверджується Gartner який стверджує, що приблизно 80% підприємств будуть використовувати генеративний штучний інтелект (GenAI) інтерфейси програмування додатків (API) або моделі до 2026 року. Проте ШІ є широким і повсюдним терміном, і в багатьох випадках він охоплює низку технологій. Тим не менш, штучний інтелект є проривом у здатності обробляти логіку по-різному, що привертає увагу як компаній, так і споживачів, які сьогодні експериментують із різними формами штучного інтелекту. Водночас ця технологія привертає таку ж увагу з боку учасників загроз, які розуміють, що це може бути слабким місцем у безпеці компанії, а також може бути інструментом, який допомагає компаніям виявляти ці слабкі місця та усувати їх.

Проблеми безпеки ШІ

Одним із способів використання ШІ компаніями є перегляд великих наборів даних для визначення закономірностей і послідовності даних відповідно. Це досягається шляхом створення табличних наборів даних, які зазвичай містять рядки й рядки даних. Незважаючи на те, що це має значні переваги для компаній, починаючи від підвищення ефективності й закінчуючи виявленням закономірностей і розуміння, це також збільшує ризики безпеки, тому що в разі злому ці дані сортуються таким чином, що його легко використовувати для загроз.

Додаткова загроза розвивається при використанні технологій великої мовної моделі (LLM), які усувають бар’єри безпеки, оскільки дані розміщуються у відкритому доступі для всіх, хто використовує цю технологію, щоб натрапити на них і використовувати. Оскільки LLM фактично є роботом, який не розуміє деталей, він виробляє найбільш імовірну відповідь на основі ймовірності, використовуючи інформацію, яку він має під рукою. Тому багато компаній забороняють співробітникам розміщувати будь-які дані компанії в таких інструментах, як ChatGPT, щоб зберегти дані в безпеці в межах компанії.

Переваги безпеки ШІ

Хоча ШІ може представляти потенційний ризик для компаній, він також може бути частиною рішення. Оскільки штучний інтелект обробляє інформацію не так, як люди, він може по-іншому дивитися на проблеми та знаходити проривні рішення. Наприклад, штучний інтелект створює кращі алгоритми та може вирішувати математичні проблеми, з якими люди боролися багато років. Таким чином, коли йдеться про інформаційну безпеку, алгоритми є головними ШІ, машинне навчання (ML) або подібна когнітивна обчислювальна технологія може винайти спосіб захисту даних.

Це справжня перевага штучного інтелекту, оскільки він може не тільки ідентифікувати та сортувати величезні обсяги інформації, але й визначати закономірності, що дозволяє організаціям бачити речі, які вони ніколи не помічали раніше. Це привносить абсолютно новий елемент в інформаційну безпеку. У той час як AI збирається використовувати загрозливі суб’єкти як інструмент для підвищення ефективності злому систем, він також буде використовуватися як інструмент етичними хакерами, щоб спробувати з’ясувати, як покращити безпеку, що буде дуже корисним для бізнесу.

Виклик співробітників і безпеки

Співробітники, які бачать переваги ШІ у своєму особистому житті, використовують такі інструменти, як ChatGPT вдосконалювати свою здатність виконувати трудові функції. У той же час ці співробітники ускладнюють захист даних. Компанії повинні знати, яку інформацію співробітники поміщають на ці платформи та пов’язані з ними загрози.

Оскільки ці рішення принесуть переваги на робочому місці, компанії можуть розглянути можливість розміщення неконфіденційних даних у системах, щоб обмежити доступ до внутрішніх наборів даних і підвищити ефективність усієї організації. Однак організації повинні усвідомити, що вони не можуть мати це в обох напрямках, і дані, які вони розміщують у таких системах, не залишаться конфіденційними. З цієї причини компаніям потрібно буде переглянути свою політику інформаційної безпеки та визначити, як захистити конфіденційні дані, водночас забезпечивши працівникам доступ до критично важливих даних.

Не конфіденційні, але корисні дані

Компанії усвідомлюють цінність, яку може принести ШІ, водночас додаючи a ризик безпеки в суміш. Щоб отримати користь від цієї технології, зберігаючи конфіденційність даних, вони досліджують способи впровадження анонімних даних за допомогою псевдонімізації, наприклад, яка замінює ідентифікаційну інформацію псевдонімом або значенням і не дозволяє безпосередньо ідентифікувати особу.

Ще один спосіб, яким компанії можуть захистити дані, — це генеративний штучний інтелект для синтетичних даних. Наприклад, якщо компанія має набір даних про клієнтів і їй потрібно поділитися ним із третьою стороною для аналізу та аналізу, вони спрямовують синтетичну модель генерації даних на набір даних. Ця модель дізнається все про набір даних, визначить шаблони з інформації, а потім створить набір даних із вигаданими особами, які не представляють нікого в реальних даних, але дозволяють одержувачу проаналізувати весь набір даних і надати точну інформацію. Це означає, що компанії можуть ділитися фальшивою, але точною інформацією, не розголошуючи конфіденційні чи приватні дані. Tйого підхід дозволяє моделям машинного навчання використовувати величезні обсяги інформації для аналітики та, у деяких випадках, для тестування даних для розробки.

З кількома методами захисту даних, доступними сьогодні компаніям, можна використовувати переваги технологій штучного інтелекту, не сумніваючись, що особисті дані залишаються в безпеці. Це важливо для компаній, оскільки вони відчувають справжні переваги, які дані приносять для підвищення ефективності, прийняття рішень і загального досвіду клієнтів.

Стаття Клайда Вільямсона, головного архітектора безпеки, і Натана Веги, віце-президента з маркетингу продуктів і стратегії Protegrity.

Прокоментуйте цю статтю нижче або через X: @IoTNow_

Часова мітка:

Більше від IoT зараз