Скайнет. Чого очікувати щодо ризиків безпеки ШІ наступного покоління

Скайнет. Чого очікувати щодо ризиків безпеки ШІ наступного покоління

Вихідний вузол: 3037761

Експерти з безпеки попереджають, що інновації в області штучного інтелекту (ШІ) продовжують розвиватися, тому 2024 рік стане вирішальним часом для організацій і керівних органів щодо встановлення стандартів безпеки, протоколів та інших запобіжних заходів, щоб ШІ не випередив їх.

Великі мовні моделі (LLM), що базуються на складних алгоритмах і масивних наборах даних, демонструють надзвичайне розуміння мови та людські можливості спілкування. Однією з найдосконаліших із цих платформ на сьогодні є GPT-4 від OpenAI, яка може похвалитися розширеними можливостями аргументації та вирішення проблем, а також керує ботом компанії ChatGPT. І компанія в партнерстві з Microsoft почала роботу над GPT-5, про що заявив генеральний директор Сем Альтман піде набагато далі — аж до володіння «суперінтелектом».

Ці моделі представляють величезний потенціал для значного підвищення продуктивності та ефективності для організацій, але експерти погоджуються, що настав час для галузі в цілому для усунення невід'ємних ризиків безпеки викликані їх розвитком і розгортанням. Дійсно, останні дослідження Writerbuddy AI, який пропонує інструмент для написання контенту на основі штучного інтелекту, виявив, що ChatGPT уже має 14 мільярдів відвідувань і збільшується.

По мірі того, як організації просуваються до розвитку штучного інтелекту, це «повинно поєднуватися з суворими етичними міркуваннями та оцінкою ризиків», — каже Гал Рінгель, генеральний директор компанії MineOS, що займається конфіденційністю та безпекою на основі штучного інтелекту.

Чи є штучний інтелект екзистенційною загрозою?

Занепокоєння з приводу безпеки наступного покоління штучного інтелекту почали проникати в березні, коли майже 34,000 XNUMX провідних технологів підписали відкритий лист із закликом припинити розробку генеративних систем штучного інтелекту, потужніших за OpenAI GPT-4. У листі згадуються «великі ризики» для суспільства, які представляє ця технологія, і «вийшла з-під контролю гонка лабораторій штучного інтелекту за розробкою та розгортанням все більш потужних цифрових розумів, які ніхто — навіть їхні творці — не можуть зрозуміти, передбачити чи надійно контролювати».

Незважаючи на ці антиутопічні побоювання, більшість експертів з безпеки не надто стурбовані сценарієм кінця світу, за яким машини стануть розумнішими за людей і захоплять світ.

«У відкритому листі висловлюються обґрунтовані занепокоєння щодо швидкого розвитку та потенційних застосувань штучного інтелекту в широкому розумінні «чи добре це для людства», — каже Метт Вілсон, директор з інженерних продажів фірми з кібербезпеки Netrix. «Хоча в певних сценаріях вони вражають, загальнодоступні версії інструментів штучного інтелекту не виглядають настільки загрозливими».

Дослідники відзначають, що викликає занепокоєння той факт, що прогрес і впровадження штучного інтелекту просуваються надто швидко, щоб належним чином керувати ризиками. «Ми не можемо повернути кришку на скриньку Пандори», — зауважує Патрік Гарр, генеральний директор постачальника послуг безпеки штучного інтелекту SlashNext.

Більше того, проста «спроба зупинити швидкість інновацій у космосі не допоможе пом’якшити» ризики, які вони представляють, і на них слід звернути увагу окремо, зауважує Маркус Фаулер, генеральний директор фірми безпеки штучного інтелекту DarkTrace Federal. Це не означає, що розробка штучного інтелекту має продовжуватись безконтрольно, каже він. Навпаки, швидкість оцінки ризиків і впровадження відповідних заходів безпеки має відповідати швидкості, з якою навчаються та розвиваються LLM.

«Технології штучного інтелекту швидко розвиваються, тому уряди та організації, які використовують штучний інтелект, також повинні прискорити обговорення безпеки ШІ», — пояснює Фаулер.

Генеративні ризики ШІ

Є кілька загальновизнаних ризиків для генеративного штучного інтелекту, які вимагають уваги та будуть лише погіршуватися, коли майбутні покоління технології стануть розумнішими. На щастя для людей, поки що жоден із них не створює науково-фантастичного сценарію кінця світу, згідно з яким штучний інтелект планує знищити своїх творців.

Натомість вони містять набагато більш звичні загрози, такі як витік даних, потенційно конфіденційної для бізнесу інформації; зловживання для зловмисної діяльності; і неточні результати, які можуть ввести в оману або заплутати користувачів, що зрештою призведе до негативних наслідків для бізнесу.

Оскільки LLM-ам потрібен доступ до величезних обсягів даних для надання точних і релевантних результатів, конфіденційна інформація може бути ненавмисно розкрита або використана не за призначенням.

«Основний ризик – це працівники, які його годують з конфіденційною для бізнесу інформацією коли просять його написати план або перефразувати електронні листи чи бізнес-колоди, що містять конфіденційну інформацію компанії», – зазначає Рінгель.

З точки зору кібератак, зловмисники вже знайшли безліч способів використати ChatGPT та інші системи ШІ як зброю. Одним із способів було використання моделей для створення складної компрометації бізнес-електронної пошти (BEC) та інших фішингових атак, які вимагають створення соціально розроблених персоналізованих повідомлень, призначених для успіху.

«Завдяки зловмисному програмному забезпеченню ChatGPT дозволяє кіберзлочинцям створювати нескінченну кількість варіацій коду, щоб бути на крок попереду механізмів виявлення зловмисного програмного забезпечення», — говорить Харр.

Галюцинації штучного інтелекту також становлять значну загрозу безпеці та дозволяють зловмисникам озброювати технологію на основі LLM, як-от ChatGPT, унікальним способом. Галюцинація штучного інтелекту – це правдоподібна реакція штучного інтелекту, яка є недостатньою, упередженою або абсолютно неправдивою. «Вигадані чи інші небажані відповіді можуть спрямувати організації на неправильне прийняття рішень, процеси та оманливі комунікації», — попереджає Авіва Літан, віце-президент Gartner.

Зловмисники також можуть використовувати ці галюцинації, щоб отруїти LLM і «генерувати конкретну дезінформацію у відповідь на запитання», зауважує Майкл Райнхарт, віце-президент із штучного інтелекту компанії Securiti, яка займається захистом даних. «Це можна розширити до створення вразливого вихідного коду та, можливо, до моделей чату, здатних спрямовувати користувачів сайту до небезпечних дій».

Зловмисники можуть навіть зайти так далеко, що публікувати шкідливі версії програмних пакетів який LLM може рекомендувати розробнику програмного забезпечення, вважаючи, що це законне вирішення проблеми. Таким чином зловмисники можуть ще більше використовувати ШІ для здійснення атак на ланцюги поставок.

Шлях вперед

Управління цими ризиками вимагатиме зважених і колективних дій, перш ніж інновації ШІ перевищать здатність галузі контролювати їх, відзначають експерти. Але вони також мають ідеї щодо вирішення проблеми ШІ.

Харр вірить у «боротися з AI з A», згідно з якою «прогрес у рішеннях безпеки та стратегіях запобігання ризикам, викликаним штучним інтелектом, має розвиватися з однаковою або більшою швидкістю.

«Захист кібербезпеки потребує використання штучного інтелекту для успішної боротьби з кіберзагрозами за допомогою технології штучного інтелекту», — додає він. «Для порівняння, застарілі технології безпеки не мають шансів проти цих атак».

Однак організації також повинні зважено підходити до впровадження ШІ, в тому числі Рішення безпеки на основі ШІ — щоб вони не створили більше ризиків для свого середовища, — застерігає Вілсон із Netrix.

«Зрозумійте, що таке штучний інтелект, а чим ні», — радить він. «Киньте виклик постачальникам, які стверджують, що використовують штучний інтелект, щоб описати, що він робить, як він покращує їхні рішення та чому це важливо для вашої організації».

Rinehart із Securiti пропонує дворівневий підхід до поетапного впровадження штучного інтелекту в середовище шляхом розгортання цілеспрямованих рішень і встановлення захисних огорож безпосередньо перед тим, як наражати організацію на непотрібний ризик.

«Спочатку застосуйте моделі для конкретного додатка, потенційно доповнені базами знань, які створені для надання цінності в конкретних випадках використання», — каже він. «Тоді … запровадьте систему моніторингу, щоб захистити ці моделі, ретельно перевіряючи повідомлення, що надходять до них і від них, на предмет проблем конфіденційності та безпеки».

Експерти також рекомендують налаштовувати політику безпеки та процедури для ШІ перед його розгортанням, а не як задумку, щоб зменшити ризик. Вони навіть можуть створити спеціалізованого спеціаліста з ризиків штучного інтелекту або цільову групу для нагляду за дотриманням вимог.

За межами підприємства галузь у цілому також має вжити заходів для встановлення стандартів безпеки та практик навколо штучного інтелекту, які можуть прийняти всі, хто розробляє та використовує цю технологію, — те, що вимагатиме колективних дій як державного, так і приватного секторів у глобальному масштабі. , – каже Фаулер з DarkTrace Federal.

Він цитує вказівки щодо створення безпечних систем ШІ опубліковано спільно Агентством з кібербезпеки та безпеки інфраструктури США (CISA) і Національним центром кібербезпеки Великобританії (NCSC) як приклад того, які дії мають супроводжувати постійний розвиток ШІ.

«По суті, — каже Райнхарт із Securiti, — 2024 рік стане свідком швидкої адаптації як традиційної безпеки, так і передових методів штучного інтелекту для захисту користувачів і даних у цю генеративну епоху штучного інтелекту, що розвивається».

Часова мітка:

Більше від Темне читання