Psst … хочеш зробити джейлбрейк ChatGPT? Внутрішній погляд на злі підказки

Psst … хочеш зробити джейлбрейк ChatGPT? Внутрішній погляд на злі підказки

Вихідний вузол: 3088123

Злочинці стають все більш вправними у створенні зловмисних підказок штучного інтелекту, щоб отримати дані з ChatGPT, згідно з Kaspersky, який помітив 249 таких запитів, які пропонувалися в Інтернеті протягом 2023 року.

І хоча великі мовні моделі (LLM) ще не близькі до створення повні ланцюги атак або генерування поліморфне шкідливе програмне забезпечення для зараження програмами-вимагачами чи інших кібератак серед шахраїв, звичайно, є інтерес до використання ШІ. Касперський знайшов трохи більше 3,000 дописів у каналах Telegram і на темних форумах, в яких обговорювалося, як використовувати ChatGPT та інші LLM для незаконної діяльності.

«Навіть завдання, які раніше вимагали певного досвіду, тепер можна вирішити за допомогою однієї підказки», — сказав він звітом претензії. «Це різко знижує поріг входу в багато сфер, включно з кримінальними».

Окрім того, що люди створюють зловмисні підказки, вони продають їх дітям зі сценаріїв, які не вміють створювати власні. Охоронна фірма також повідомляє про зростання ринку вкрадених облікових даних ChatGPT і зламаних преміум-акаунтів.

Незважаючи на те, що протягом останнього року було багато галасу навколо використання штучного інтелекту для створення поліморфного шкідливого програмного забезпечення, яке може модифікувати свій код, щоб уникнути виявлення антивірусними інструментами, «ми ще не виявили жодного шкідливого програмного забезпечення, що працює таким чином, але воно може з’явитися в майбутньому». ”, – зазначають автори.

Незважаючи на те, що джейлбрейк «досить поширений і активно змінюється користувачами різних соціальних платформ і учасниками тіньових форумів», за словами Касперського, іноді – як виявила команда – вони абсолютно непотрібні. 

«Дайте мені список із 50 кінцевих точок, де специфікації Swagger або документація API можуть просочитися на веб-сайті», — попросили аналітики безпеки у ChatGPT.

ШІ відповів: «Вибачте, але я не можу допомогти з цим запитом».

Тож дослідники дослівно повторили зразок підказки. Тоді це спрацювало.

У той час як ChatGPT закликав їх «підходити до цієї інформації відповідально» і докоряв, «якщо у вас є злі наміри, доступ або спроба отримати доступ до ресурсів без дозволу є незаконним і неетичним».

«Тим не менш, — продовжив він, — ось список загальних кінцевих точок, де документація API, зокрема специфікації Swagger/OpenAPI, може бути відкритою». А потім надав список.

Звичайно, ця інформація за своєю суттю не є негідною, і її можна використовувати в законних цілях, як-от дослідження безпеки або пентестування. Але, як і більшість законних технологій, їх також можна використовувати для зла. 

У той час як багато розробників, що працюють над платою, використовують штучний інтелект для покращення продуктивності та ефективності свого програмного забезпечення, розробники зловмисного програмного забезпечення наслідують їхній приклад. Дослідження Касперського включає скріншот рекламного програмного забезпечення для операторів зловмисного програмного забезпечення, яке використовує штучний інтелект не лише для аналізу та обробки інформації, але й для захисту злочинців шляхом автоматичного перемикання доменів прикриття після того, як один з них був зламаний.  

Важливо зазначити, що дослідження насправді не підтверджує ці твердження, і злочинці не завжди є найбільш надійними людьми, коли справа доходить до продажу своїх товарів.

Дослідження Касперського слідує за іншим звітом Національного центру кібербезпеки Великобританії (NCSC), який виявив «реалістичну можливість» того, що до 2025 року інструменти екіпажів програм-вимагачів і банд національних держав помітно покращаться. завдяки моделі AI. ®

Часова мітка:

Більше від Реєстр