Експерти з безпеки попереджають, що інновації в області штучного інтелекту (ШІ) продовжують розвиватися, тому 2024 рік стане вирішальним часом для організацій і керівних органів щодо встановлення стандартів безпеки, протоколів та інших запобіжних заходів, щоб ШІ не випередив їх.
Великі мовні моделі (LLM), що базуються на складних алгоритмах і масивних наборах даних, демонструють надзвичайне розуміння мови та людські можливості спілкування. Однією з найдосконаліших із цих платформ на сьогодні є GPT-4 від OpenAI, яка може похвалитися розширеними можливостями аргументації та вирішення проблем, а також керує ботом компанії ChatGPT. І компанія в партнерстві з Microsoft почала роботу над GPT-5, про що заявив генеральний директор Сем Альтман піде набагато далі — аж до володіння «суперінтелектом».
Ці моделі представляють величезний потенціал для значного підвищення продуктивності та ефективності для організацій, але експерти погоджуються, що настав час для галузі в цілому для усунення невід'ємних ризиків безпеки викликані їх розвитком і розгортанням. Дійсно, останні дослідження Writerbuddy AI, який пропонує інструмент для написання контенту на основі штучного інтелекту, виявив, що ChatGPT уже має 14 мільярдів відвідувань і збільшується.
По мірі того, як організації просуваються до розвитку штучного інтелекту, це «повинно поєднуватися з суворими етичними міркуваннями та оцінкою ризиків», — каже Гал Рінгель, генеральний директор компанії MineOS, що займається конфіденційністю та безпекою на основі штучного інтелекту.
Чи є штучний інтелект екзистенційною загрозою?
Занепокоєння з приводу безпеки наступного покоління штучного інтелекту почали проникати в березні, коли майже 34,000 XNUMX провідних технологів підписали відкритий лист із закликом припинити розробку генеративних систем штучного інтелекту, потужніших за OpenAI GPT-4. У листі згадуються «великі ризики» для суспільства, які представляє ця технологія, і «вийшла з-під контролю гонка лабораторій штучного інтелекту за розробкою та розгортанням все більш потужних цифрових розумів, які ніхто — навіть їхні творці — не можуть зрозуміти, передбачити чи надійно контролювати».
Незважаючи на ці антиутопічні побоювання, більшість експертів з безпеки не надто стурбовані сценарієм кінця світу, за яким машини стануть розумнішими за людей і захоплять світ.
«У відкритому листі висловлюються обґрунтовані занепокоєння щодо швидкого розвитку та потенційних застосувань штучного інтелекту в широкому розумінні «чи добре це для людства», — каже Метт Вілсон, директор з інженерних продажів фірми з кібербезпеки Netrix. «Хоча в певних сценаріях вони вражають, загальнодоступні версії інструментів штучного інтелекту не виглядають настільки загрозливими».
Дослідники відзначають, що викликає занепокоєння той факт, що прогрес і впровадження штучного інтелекту просуваються надто швидко, щоб належним чином керувати ризиками. «Ми не можемо повернути кришку на скриньку Пандори», — зауважує Патрік Гарр, генеральний директор постачальника послуг безпеки штучного інтелекту SlashNext.
Більше того, проста «спроба зупинити швидкість інновацій у космосі не допоможе пом’якшити» ризики, які вони представляють, і на них слід звернути увагу окремо, зауважує Маркус Фаулер, генеральний директор фірми безпеки штучного інтелекту DarkTrace Federal. Це не означає, що розробка штучного інтелекту має продовжуватись безконтрольно, каже він. Навпаки, швидкість оцінки ризиків і впровадження відповідних заходів безпеки має відповідати швидкості, з якою навчаються та розвиваються LLM.
«Технології штучного інтелекту швидко розвиваються, тому уряди та організації, які використовують штучний інтелект, також повинні прискорити обговорення безпеки ШІ», — пояснює Фаулер.
Генеративні ризики ШІ
Є кілька загальновизнаних ризиків для генеративного штучного інтелекту, які вимагають уваги та будуть лише погіршуватися, коли майбутні покоління технології стануть розумнішими. На щастя для людей, поки що жоден із них не створює науково-фантастичного сценарію кінця світу, згідно з яким штучний інтелект планує знищити своїх творців.
Натомість вони містять набагато більш звичні загрози, такі як витік даних, потенційно конфіденційної для бізнесу інформації; зловживання для зловмисної діяльності; і неточні результати, які можуть ввести в оману або заплутати користувачів, що зрештою призведе до негативних наслідків для бізнесу.
Оскільки LLM-ам потрібен доступ до величезних обсягів даних для надання точних і релевантних результатів, конфіденційна інформація може бути ненавмисно розкрита або використана не за призначенням.
«Основний ризик – це працівники, які його годують з конфіденційною для бізнесу інформацією коли просять його написати план або перефразувати електронні листи чи бізнес-колоди, що містять конфіденційну інформацію компанії», – зазначає Рінгель.
З точки зору кібератак, зловмисники вже знайшли безліч способів використати ChatGPT та інші системи ШІ як зброю. Одним із способів було використання моделей для створення складної компрометації бізнес-електронної пошти (BEC) та інших фішингових атак, які вимагають створення соціально розроблених персоналізованих повідомлень, призначених для успіху.
«Завдяки зловмисному програмному забезпеченню ChatGPT дозволяє кіберзлочинцям створювати нескінченну кількість варіацій коду, щоб бути на крок попереду механізмів виявлення зловмисного програмного забезпечення», — говорить Харр.
Галюцинації штучного інтелекту також становлять значну загрозу безпеці та дозволяють зловмисникам озброювати технологію на основі LLM, як-от ChatGPT, унікальним способом. Галюцинація штучного інтелекту – це правдоподібна реакція штучного інтелекту, яка є недостатньою, упередженою або абсолютно неправдивою. «Вигадані чи інші небажані відповіді можуть спрямувати організації на неправильне прийняття рішень, процеси та оманливі комунікації», — попереджає Авіва Літан, віце-президент Gartner.
Зловмисники також можуть використовувати ці галюцинації, щоб отруїти LLM і «генерувати конкретну дезінформацію у відповідь на запитання», зауважує Майкл Райнхарт, віце-президент із штучного інтелекту компанії Securiti, яка займається захистом даних. «Це можна розширити до створення вразливого вихідного коду та, можливо, до моделей чату, здатних спрямовувати користувачів сайту до небезпечних дій».
Зловмисники можуть навіть зайти так далеко, що публікувати шкідливі версії програмних пакетів який LLM може рекомендувати розробнику програмного забезпечення, вважаючи, що це законне вирішення проблеми. Таким чином зловмисники можуть ще більше використовувати ШІ для здійснення атак на ланцюги поставок.
Шлях вперед
Управління цими ризиками вимагатиме зважених і колективних дій, перш ніж інновації ШІ перевищать здатність галузі контролювати їх, відзначають експерти. Але вони також мають ідеї щодо вирішення проблеми ШІ.
Харр вірить у «боротися з AI з A», згідно з якою «прогрес у рішеннях безпеки та стратегіях запобігання ризикам, викликаним штучним інтелектом, має розвиватися з однаковою або більшою швидкістю.
«Захист кібербезпеки потребує використання штучного інтелекту для успішної боротьби з кіберзагрозами за допомогою технології штучного інтелекту», — додає він. «Для порівняння, застарілі технології безпеки не мають шансів проти цих атак».
Однак організації також повинні зважено підходити до впровадження ШІ, в тому числі Рішення безпеки на основі ШІ — щоб вони не створили більше ризиків для свого середовища, — застерігає Вілсон із Netrix.
«Зрозумійте, що таке штучний інтелект, а чим ні», — радить він. «Киньте виклик постачальникам, які стверджують, що використовують штучний інтелект, щоб описати, що він робить, як він покращує їхні рішення та чому це важливо для вашої організації».
Rinehart із Securiti пропонує дворівневий підхід до поетапного впровадження штучного інтелекту в середовище шляхом розгортання цілеспрямованих рішень і встановлення захисних огорож безпосередньо перед тим, як наражати організацію на непотрібний ризик.
«Спочатку застосуйте моделі для конкретного додатка, потенційно доповнені базами знань, які створені для надання цінності в конкретних випадках використання», — каже він. «Тоді … запровадьте систему моніторингу, щоб захистити ці моделі, ретельно перевіряючи повідомлення, що надходять до них і від них, на предмет проблем конфіденційності та безпеки».
Експерти також рекомендують налаштовувати політику безпеки та процедури для ШІ перед його розгортанням, а не як задумку, щоб зменшити ризик. Вони навіть можуть створити спеціалізованого спеціаліста з ризиків штучного інтелекту або цільову групу для нагляду за дотриманням вимог.
За межами підприємства галузь у цілому також має вжити заходів для встановлення стандартів безпеки та практик навколо штучного інтелекту, які можуть прийняти всі, хто розробляє та використовує цю технологію, — те, що вимагатиме колективних дій як державного, так і приватного секторів у глобальному масштабі. , – каже Фаулер з DarkTrace Federal.
Він цитує вказівки щодо створення безпечних систем ШІ опубліковано спільно Агентством з кібербезпеки та безпеки інфраструктури США (CISA) і Національним центром кібербезпеки Великобританії (NCSC) як приклад того, які дії мають супроводжувати постійний розвиток ШІ.
«По суті, — каже Райнхарт із Securiti, — 2024 рік стане свідком швидкої адаптації як традиційної безпеки, так і передових методів штучного інтелекту для захисту користувачів і даних у цю генеративну епоху штучного інтелекту, що розвивається».
- Розповсюдження контенту та PR на основі SEO. Отримайте посилення сьогодні.
- PlatoData.Network Vertical Generative Ai. Додайте собі сили. Доступ тут.
- PlatoAiStream. Web3 Intelligence. Розширення знань. Доступ тут.
- ПлатонЕСГ. вуглець, CleanTech, Енергія, Навколишнє середовище, Сонячна, Поводження з відходами. Доступ тут.
- PlatoHealth. Розвідка про біотехнології та клінічні випробування. Доступ тут.
- джерело: https://www.darkreading.com/vulnerabilities-threats/skynet-ahoy-what-to-expect-next-gen-ai-security-risks
- : має
- :є
- : ні
- $UP
- 000
- 14
- 2024
- a
- здатність
- МЕНЮ
- прискорювати
- доступ
- супроводжувати
- точний
- дію
- дії
- діяльність
- актори
- адаптація
- адреса
- адресований
- Додає
- прийняти
- Прийняття
- Прийняття
- просунутий
- просування
- досягнення
- проти
- агентство
- попереду
- AI
- Системи ШІ
- алгоритми
- ВСІ
- дозволяти
- вже
- Також
- суми
- an
- та
- та інфраструктури
- з'являтися
- застосування
- підхід
- відповідний
- ЕСТЬ
- ARM
- навколо
- штучний
- штучний інтелект
- Штучний інтелект (AI)
- AS
- запитувач
- оцінка
- оцінки
- At
- нападки
- спроба
- збільшено
- назад
- Бій
- BE
- BEC
- ставати
- було
- перед тим
- буття
- вважає,
- віруючи
- упереджений
- Мільярд
- має
- органів
- Бот
- обидва
- Box
- широкий
- Створюємо
- бізнес
- компроміс ділової електронної пошти
- але
- by
- званий
- CAN
- не може
- можливості
- здатний
- випадків
- застереження
- центр
- Генеральний директор
- певний
- ланцюг
- виклик
- шанс
- чат
- ChatGPT
- СНД
- цитується
- стверджувати
- код
- Collective
- Колективна дія
- Приходити
- зв'язку
- компанія
- порівняння
- дотримання
- компроміс
- стурбований
- щодо
- Турбота
- Наслідки
- розгляду
- міркування
- продовжувати
- триває
- триває
- навпаки
- контроль
- діалоговий
- підрахунок
- з'єднаний
- створювати
- створення
- Творці
- вирішальне значення
- передовий
- кібер-
- кібер-безпеки
- Кібератака
- кіберзлочинці
- Кібербезпека
- Агентство з питань кібербезпеки та безпеки інфраструктури
- дані
- безпеку даних
- набори даних
- Дата
- Прийняття рішень
- присвячених
- Попит
- демонструвати
- розгортання
- розгорнути
- розгортання
- розгортання
- описувати
- призначений
- знищити
- Виявлення
- розвивати
- розвиненою
- Розробник
- розвивається
- розробка
- цифровий
- керівництво
- Директор
- обговорення
- робить
- байдуже
- Дон
- досудовий день
- дистопія
- ефективність
- зусилля
- повідомлення електронної пошти
- з'являються
- співробітників
- дозволяє
- інженерії
- Машинобудування
- Двигуни
- Підсилює
- величезний
- підприємство
- Навколишнє середовище
- рівним
- Епоха
- сутність
- встановити
- Ефір (ETH)
- етичний
- Навіть
- НІКОЛИ
- все
- еволюція
- еволюціонує
- приклад
- екзистенціальний
- очікувати
- experts
- Пояснює
- факт
- знайомий
- далеко
- несправний
- страх
- Федеральний
- годування
- вигаданий
- Фірма
- Перший
- виправляти
- вирівнювання
- увагу
- для
- Примусово
- На щастя
- знайдений
- від
- FT
- підживлюється
- далі
- майбутнє
- прибуток
- GAL
- Gartner
- породжувати
- покоління
- покоління
- генеративний
- Генеративний ШІ
- отримати
- отримання
- Глобальний
- глобальний масштаб
- Go
- добре
- управління
- Уряду
- великий
- було
- Мати
- he
- допомога
- Як
- How To
- HTTPS
- Людство
- Людей
- ідеї
- негайно
- здійснювати
- реалізації
- вражаючий
- in
- неточні
- ненавмисно
- включати
- У тому числі
- промисловість
- інформація
- інформація
- Інфраструктура
- притаманне
- інновація
- Інтелект
- в
- вводити
- isn
- питання
- IT
- ЙОГО
- JPG
- знання
- Labs
- мова
- Витоку
- Legacy
- законний
- лист
- Важіль
- як
- Машинки для перманенту
- головний
- зробити
- malicious
- шкідливих програм
- виявлення шкідливих програм
- вдалося
- березня
- Маркус
- масивний
- матч
- матовий
- Питання
- значити
- виміряний
- просто
- повідомлення
- Майкл
- Microsoft
- може бути
- умів
- Дезінформація
- вводить в оману
- зловживання
- Пом'якшити
- Моделі
- моніторинг
- більше
- найбільш
- МОНТАЖ
- переміщення
- багато
- повинен
- безліч
- National
- NCSC
- майже
- потреби
- негативний
- наступний
- немає
- ніхто
- увагу
- зазначив,
- примітки
- Спостерігає
- of
- Пропозиції
- Офіцер
- on
- ONE
- тільки
- відкрити
- OpenAI
- or
- організація
- організації
- Інше
- виходи
- над
- наглядати
- алюр
- Pandora
- Партнерство
- Патрік
- Персоналізовані
- перспектива
- phishing
- фішинг-атаки
- місце
- план
- Платформи
- plato
- Інформація про дані Платона
- PlatoData
- точка
- отрута
- Політика
- поставлений
- позах
- можливо
- потенціал
- потенційно
- Харчування
- потужний
- повноваження
- практики
- передбачати
- подарунки
- президент
- запобігати
- недоторканність приватного життя
- Конфіденційність та безпека
- приватний
- приватний сектор
- Проблема
- вирішення проблем
- Процедури
- процеси
- продуктивність
- глибокий
- прогрес
- правильно
- власником
- захист
- протоколи
- забезпечувати
- Постачальник
- громадськість
- опублікований
- put
- Поклавши
- питання
- швидко
- Гонки
- швидко
- ставка
- швидше
- визнаний
- рекомендувати
- доречний
- чудовий
- перефразування
- представляти
- представляє
- вимагати
- дослідження
- Дослідники
- відповідь
- відповіді
- в результаті
- Показали
- суворий
- Risk
- оцінка ризику
- ризики
- s
- захист
- гарантії
- Безпека
- Зазначений
- продажів
- Сем
- говорить
- шкала
- сценарій
- сценарії
- сектор
- безпечний
- безпеку
- політики безпеки
- ризики для безпеки
- сенс
- чутливий
- комплект
- набори
- установка
- кілька
- Повинен
- підписаний
- значний
- сайт
- Скайнет
- розумнішими
- So
- так далеко
- соціально
- суспільство
- Софтвер
- рішення
- Рішення
- що в сім'ї щось
- складний
- Простір
- конкретний
- стояти
- стандартів
- почалася
- залишатися
- управляти
- Крок
- заходи
- Стоп
- стратегії
- Стратегія
- успіх
- Успішно
- такі
- Суперінтелект
- поставка
- ланцюжка поставок
- система
- Systems
- T
- з урахуванням
- Приймати
- Завдання
- оперативна група
- методи
- технологів
- Технологія
- ніж
- Що
- Команда
- Великобританія
- світ
- їх
- Їх
- потім
- Ці
- вони
- це
- ті
- загроза
- актори загроз
- загрози
- час
- до
- занадто
- інструмент
- інструменти
- топ
- до
- традиційний
- навчений
- правда
- тип
- Uk
- Зрештою
- розуміти
- розуміння
- створеного
- небажаний
- us
- використання
- користувачі
- використання
- дійсний
- значення
- варіації
- величезний
- постачальники
- віце
- Віцепрезидент
- Відвідувань
- Вразливий
- Попереджає
- шлях..
- способи
- we
- Що
- коли
- який
- в той час як
- всі
- чому
- широко
- волі
- Уїлсон
- з
- свідок
- Work
- світ
- гірше
- запис
- рік
- вашу
- зефірнет