OpenAI випустила безкоштовний онлайн-інструмент, призначений для передбачення того, чи був уривок тексту створений ШІ чи написаний людиною.
Програмне забезпечення під назвою «класифікатор тексту штучного інтелекту» базується на мовній моделі та оцінює ймовірність того, що фрагмент тексту було згенеровано моделлю штучного інтелекту, за п’ятибальною шкалою від «дуже малоймовірно» до «незрозуміло» та «імовірно». .” Ми випробували це на деяких наших статтях десятиліття тому або близько того, і кілька стерв’ятників могли бути розлючені, дізнавшись, що їх копія була оцінена як «незрозуміло, чи створена вона ШІ».
Інструмент, представлений у вівторок, дебютував через кілька місяців після запуску запущений ChatGPT, чат-бот, який автоматично генерує текст за вказівкою, як-от відповідь на запитання, розповідь жарту чи написання вірша. По суті, OpenAI сприяв зростанню кількості ботів, які транслюють балаканину, і тепер пропонує недосконалий інструмент для виявлення такого роду речей.
Школи та університети в США, Франції та Індії, принаймні, відтоді заборонений учням доступ до ChatGPT за допомогою їхніх мереж або надсилання есе, згенерованих програмним забезпеченням.
Класифікатор іноді надзвичайно впевнений у неправильному прогнозі
Експерти також побоюються, що моделі генерації тексту можуть бути використані для розповсюдження тонн дезінформації, фішингових електронних листів, купи й купи нісенітниці, яка заповнить Інтернет. Кілька організації тому комп’ютерники почали роботу над власними інструментами класифікатора для виявлення контенту, створеного ШІ.
ШІ-класифікатор тексту OpenAI не ідеальний. «Наше призначення для текстового класифікатора штучного інтелекту — сприяти обговоренню різниці між написаним людьми та створеним штучним інтелектом вмістом», — лабораторія, фінансована Microsoft. сказав.
«Результати можуть допомогти, але не повинні бути єдиним доказом при прийнятті рішення про те, чи був документ створений за допомогою штучного інтелекту», – додала організація. «Модель навчена на тексті, написаному людиною, з різних джерел, які можуть не бути репрезентативними для всіх типів тексту, написаного людиною».
Текстовий класифікатор штучного інтелекту призначений для виявлення створеного машиною тексту з різних джерел, а не лише з розкрученого ChatGPT. Його навчали як на тексті, написаному штучним інтелектом, із 34 моделей, створених п’ятьма організаціями, так і на тексті, написаному людиною, взятому з Інтернету та взятому з внутрішнього набору даних компанії.
Інструменту потрібні зразки тексту з 1,000 символів, і він погано працює для інших мов, крім англійської. Керівник відділу координації OpenAI Ян Лейке сказав Його прогнози Axios можуть давати помилкові позитивні або помилкові негативні результати.
Класифікатор навіть не буде корисним для вчителів, які хочуть оцінити, чи здав учень завдання, згенероване таким програмним забезпеченням, як ChatGPT. Класифікатор тексту штучного інтелекту недостатньо чутливий, щоб визначити, які речення чи фрагменти могли бути створені штучним інтелектом, тому будь-який текст, створений комп’ютером і налаштований людиною, може уникнути виявлення.
«Ми попереджаємо, що модель не була ретельно оцінена для багатьох очікуваних основних цілей, включаючи студентські есе, автоматизовані кампанії з дезінформації або стенограми чатів. Дійсно, відомо, що класифікатори, засновані на нейронних мережах, погано відкалібровані поза їхніми навчальними даними. Для вхідних даних, які сильно відрізняються від тексту в нашому навчальному наборі, класифікатор іноді надзвичайно впевнений у неправильному прогнозі», — попередили в лабораторії.
OpenAI також як повідомляється вивчає інші підходи до виявлення тексту, створеного штучним інтелектом, включаючи техніку водяних знаків, яка може бути вбудована в її майбутні продукти.
Реєстр звернувся до OpenAI з проханням надати подальший коментар, бажано не згенерований ШІ. ®
- Розповсюдження контенту та PR на основі SEO. Отримайте посилення сьогодні.
- Платоблокчейн. Web3 Metaverse Intelligence. Розширені знання. Доступ тут.
- джерело: https://go.theregister.com/feed/www.theregister.com/2023/01/31/openai_tool_chatgpt_detection/
- 000
- 1
- a
- МЕНЮ
- доступ до
- доданий
- після
- AI
- ВСІ
- Серед
- та
- підходи
- статті
- Автоматизований
- автоматично
- Axios
- заснований
- між
- боти
- побудований
- Кампанії
- обережно
- символи
- Chatbot
- ChatGPT
- коментар
- компанія
- комп'ютер
- впевнений
- зміст
- Розмова
- може
- дані
- дебютувало
- десятиліття
- Вирішивши
- призначений
- Виявлення
- різний
- дезінформація
- документ
- ефект
- повідомлення електронної пошти
- англійська
- досить
- Ефір (ETH)
- оцінюється
- Навіть
- докази
- очікуваний
- Дослідження
- надзвичайно
- страх
- страх
- Сприяти
- Франція
- Безкоштовна
- від
- Паливо
- далі
- майбутнє
- генерується
- генерує
- йде
- голова
- допомога
- допоміг
- HTTPS
- людина
- in
- У тому числі
- Індію
- внутрішній
- інтернет
- IT
- січень
- Дитина
- відомий
- lab
- мова
- мови
- УЧИТЬСЯ
- Ймовірно
- шукати
- багато
- Дезінформація
- модель
- Моделі
- місяців
- мереж
- Нейронний
- нейронні мережі
- Пропозиції
- онлайн
- OpenAI
- організація
- організації
- Інше
- поза
- власний
- ідеальний
- phishing
- частина
- plato
- Інформація про дані Платона
- PlatoData
- Харчування
- передбачати
- прогноз
- Прогнози
- принцип
- виробляти
- Вироблений
- Продукти
- питання
- ставки
- випущений
- представник
- Вимагається
- результати
- Зростання
- шкала
- Вчені
- чутливий
- комплект
- кілька
- Повинен
- з
- So
- Софтвер
- деякі
- Джерела
- почалася
- введення в експлуатацію
- студент
- Студентам
- представлений
- такі
- цілі
- вчителя
- Команда
- їх
- отже
- до
- Тон
- інструмент
- інструменти
- навчений
- Навчання
- Вівторок
- університети
- представила
- us
- використання
- різноманітність
- різний
- Чи
- який
- ВООЗ
- волі
- Work
- письмовий
- Неправильно
- зефірнет