Найпотужніші 7 мовних моделей (LLM) і мовних моделей бачення (VLM), що трансформують штучний інтелект у 2023 році

Найпотужніші 7 мовних моделей (LLM) і мовних моделей бачення (VLM), що трансформують штучний інтелект у 2023 році

Вихідний вузол: 2757531

BLIP-2, моделі мови зору

У галузі штучного інтелекту, що швидко розвивається, обробка природної мови стала центром уваги дослідників і розробників. Розбудова на фундаменті с Архітектура трансформатора та Двонаправлене оновлення BERT, за останні роки з’явилося кілька новаторських мовних моделей, які розширюють межі того, що машини можуть зрозуміти та створити.

У цій статті ми заглибимося в останні досягнення у світі великомасштабних мовних моделей, досліджуючи вдосконалення, внесені кожною моделлю, їхні можливості та потенційні застосування. Ми також розглянемо візуальні мовні моделі (VLM), які навчені обробляти не лише текстові, а й візуальні дані.

Якщо ви хочете пропустити, ось мовні моделі, які ми представили:

  1. GPT-3 від OpenAI
  2. LaMDA від Google
  3. PaLM від Google
  4. Flamingo від DeepMind
  5. BLIP-2 від Salesforce
  6. LLaMA від Meta AI
  7. GPT-4 від OpenAI

Якщо цей поглиблений навчальний контент стане для вас корисним, ви можете підпишіться на наш список розсилки досліджень ШІ щоб отримати попередження, коли ми випускаємо новий матеріал. 

Найважливіші великі мовні моделі (LLM) і візуальні мовні моделі (VLM) у 2023 році

1. GPT-3 від OpenAI

Підсумки 

Команда OpenAI представила GPT-3 як альтернативу наявності позначеного набору даних для кожного нового мовного завдання. Вони припустили, що збільшення масштабів мовних моделей може покращити продуктивність, незалежно від виконання завдань. Щоб перевірити цю пропозицію, вони навчили модель авторегресійної мови з параметрами 175B, яка називається GPT-3, і оцінив його ефективність у більш ніж двох десятках завдань НЛП. Оцінка за допомогою малократного навчання, одноразового навчання та нульового навчання показала, що GPT-3 досяг багатообіцяючих результатів і навіть інколи перевершував найсучасніші результати, досягнуті точно налаштованими моделями. 

Яка мета? 

  • Запропонувати альтернативне вирішення існуючої проблеми, коли позначений набір даних потрібен для кожного нового мовного завдання.

Як підійти до проблеми?

  • Дослідники запропонували розширити мовні моделі, щоб підвищити ефективність роботи за декілька кроків. 
  • Команда GPT-3 Модель використовує ту саму модель і архітектуру, що й GPT-2, включаючи модифіковану ініціалізацію, попередню нормалізацію та оборотну токенізацію.
  • Однак, на відміну від GPT-2, він використовує чергування щільних та локально смугових розріджених моделей уваги в шарах трансформатора, як у Розріджений трансформатор.
GPT-3

Які результати?

  • Модель GPT-3 без точного налаштування досягає багатообіцяючих результатів у ряді завдань НЛП і навіть іноді перевершує найсучасніші моделі, які були точно відрегульовані для цього конкретного завдання:
    • на CoQA контрольний показник, 81.5 F1 у режимі нульового пострілу, 84.0 F1 у режимі одного пострілу та 85.0 F1 у налаштуваннях кількох пострілів, порівняно з оцінкою 90.7 F1, досягнутою точно налаштованою SOTA.
    • на TriviaQA контрольний показник, точність 64.3% в режимі нульового пострілу, 68.0% в режимі одного пострілу та 71.2% у налаштуваннях кількох пострілів, що перевершує сучасний рівень (68%) на 3.2%.
    • на LAMBADA набір даних, 76.2% точності в режимі нульового пострілу, 72.5% в режимі одного пострілу та 86.4% в налаштуванні кількох пострілів, що перевершує сучасний рівень (68%) на 18%.
  • Статті новин, створені моделлю GPT-175 із параметром 3B, важко відрізнити від реальних, згідно з оцінками людей (з точністю, що ледве перевищує рівень шансу на рівні ~ 52%). 
  • Незважаючи на чудову продуктивність GPT-3, він отримав неоднозначні відгуки від спільноти AI:

Де дізнатися більше про це дослідження?

Де ви можете отримати код реалізації?

  • Сам код недоступний, але деякі статистичні дані набору даних разом із безумовними, нефільтрованими зразками 2048-токенів з GPT-3 опубліковані на GitHub.

2. LaMDA від Google

Підсумки 

Laмова MОделі для Dдіалог Aдодатки (TheMDA) були створені в процесі тонкого налаштування групи нейронних мовних моделей на основі Transformer, спеціально розроблених для діалогів. Ці моделі мають максимум 137B параметрів і були навчені використовувати зовнішні джерела знань. Розробники LaMDA ставили перед собою три ключові цілі — якість, безпека та надійність. Результати показали, що точне налаштування дозволяє скоротити розрив якості до людського рівня, але продуктивність моделі залишалася нижчою за людський рівень щодо безпеки та заземлення. 

Бард Google, випущений нещодавно як альтернатива ChatGPT, підтримується LaMDA. Незважаючи на те, що Барда часто називають нудний, це можна розглядати як доказ відданості Google пріоритету безпеки, навіть в умовах гострого суперництва між Google і Microsoft за встановлення домінування у сфері генеративного ШІ.

Яка мета? 

  • Побудувати модель для діалогових програм із відкритим доменом, де агент діалогу може спілкуватися на будь-яку тему з розумними, специфічними для контексту, заснованими на надійних джерелах і етичними.

Як підійти до проблеми?

  • LaMDA побудовано на Трансформатор, архітектура нейронної мережі, яку Google Research винайшла та відкрила у 2017 році.
    • Як і інші великі мовні моделі, включаючи BERT і GPT-3, LaMDA навчається на терабайтах текстових даних, щоб дізнатися, як слова співвідносяться одне з одним, а потім передбачити, які слова, ймовірно, будуть наступними. 
    • Однак, на відміну від більшості мовних моделей, LaMDA навчили діалогу, щоб вловити нюанси, які відрізняють відкриту розмову від інших форм мови.
  • Модель також налаштована для підвищення чутливості, безпеки та конкретності відповідей. Хоча такі фрази, як «це добре» та «Я не знаю», можуть бути значущими в багатьох діалогових сценаріях, вони навряд чи призведуть до цікавих і привабливих розмов.
    • Генератор LaMDA спочатку генерує кілька варіантів відповідей, які оцінюються на основі того, наскільки вони безпечні, розумні, конкретні та цікаві. Відповіді з низькими показниками безпеки відфільтровуються, а потім як відповідь вибирається результат із найвищим рейтингом.
Приклад діалогу LaMDA

Які результати?

  • Численні експерименти показують, що LaMDA може брати участь у відкритих бесідах на різноманітні теми.
  • Серія якісних оцінок підтвердила, що відповіді моделі, як правило, розумні, конкретні, цікаві та засновані на надійних зовнішніх джерелах, але все ще є місце для вдосконалення.
  • Незважаючи на весь прогрес, досягнутий до цього часу, автори визнають, що модель все ще має багато обмежень, які можуть призвести до створення неналежних або навіть шкідливих реакцій.

Де дізнатися більше про це дослідження?

Де ви можете отримати код реалізації?

  • Реалізація PyTorch з відкритим кодом для архітектури LaMDA перед навчанням доступна на GitHub.

3. PaLM від Google

Підсумки 

Paшляхи Lтуга Mодель (PaLM) — це 540-мільярдна модель мови на основі Transformer. Навчання PaLM проходило на чіпах 6144 TPU v4 із використанням Pathways, нової системи ML для ефективного навчання кількох модулів TPU. Модель демонструє переваги масштабування в короткочасному навчанні, досягаючи найсучасніших результатів на сотнях тестів розуміння мови та генерації. PaLM перевершує налаштовані найсучасніші моделі в багатоетапних завданнях міркування та перевищує середню продуктивність людини на тесті BIG-bench.

Яка мета? 

  • Покращити розуміння того, як масштабування великих мовних моделей впливає на короткочасне навчання.

Як підійти до проблеми?

  • ​​Ключова ідея полягає в тому, щоб масштабувати навчання моделі мови з 540 мільярдами параметрів за допомогою системи Pathways:
    • Команда використовувала паралелізм даних на рівні Pod у двох Cloud TPU v4 Pods, одночасно використовуючи стандартні дані та паралельність моделі всередині кожного Pod.
    • Вони змогли масштабувати навчання до 6144 чіпів TPU v4, найбільшої конфігурації системи на основі TPU, яка використовувалася для навчання на сьогоднішній день.
    • Модель досягла ефективності навчання 57.8% використання апаратних FLOP, що, як стверджують автори, є найвищою ефективністю навчання для великих мовних моделей у цьому масштабі. 
  • Навчальні дані для моделі PaLM включали комбінацію англійських та багатомовних наборів даних, що містять високоякісні веб-документи, книги, Вікіпедію, бесіди та код GitHub.
Модель PaLM від Google

Які результати?

  • Численні експерименти демонструють, що продуктивність моделі різко зросла, коли команда перейшла до своєї найбільшої моделі.
  • PaLM 540B досяг проривної продуктивності в багатьох дуже складних завданнях:
    • Розуміння мови та покоління. Представлена ​​модель перевершила продуктивність попередніх великих моделей у 28 із 29 завдань, які включають завдання з відповідями на запитання, завдання на завершення речень, завдання на розуміння прочитаного в контексті, завдання на здоровий глузд, завдання SuperGLUE та більше. Ефективність PaLM у виконанні завдань BIG-стенду показала, що він може розрізняти причину та наслідок, а також розуміти концептуальні комбінації у відповідних контекстах.
    • Обґрунтування. За допомогою підказки з 8-ми кадрів PaLM вирішує 58% проблем у GSM8K, еталоні тисячі складних математичних питань початкової школи, перевершуючи попередній найкращий результат у 55%, досягнутий шляхом точного налаштування моделі GPT-3 175B. PaLM також демонструє здатність генерувати чіткі пояснення в ситуаціях, які вимагають складної комбінації багатоетапного логічного висновку, знання світу та глибокого розуміння мови.
    • Генерація коду. PaLM працює на рівні з налаштованим Codex 12B, використовуючи для навчання в 50 разів менше коду Python, що підтверджує, що великі мовні моделі передають навчання як з інших мов програмування, так і з даних природної мови більш ефективно.

Де дізнатися більше про це дослідження?

Де ви можете отримати код реалізації?

  • Неофіційна реалізація PyTorch конкретної архітектури Transformer з наукової статті PaLM доступна на GitHub. Він не масштабується та публікується лише з освітньою метою. 

4. Flamingo від DeepMind

Підсумки 

Flamingo — це найсучасніше сімейство візуальних мовних моделей (VLM), навчених на великомасштабних мультимодальних веб-корпусах із змішаним текстом і зображеннями. За допомогою цього навчання моделі можуть адаптуватися до нових завдань, використовуючи мінімальні анотовані приклади, які надаються як підказка. Flamingo включає в себе ключові архітектурні вдосконалення, розроблені для об’єднання сильних сторін попередньо підготовлених лише зорових і лише мовних моделей, обробки послідовностей візуальних і текстових даних зі змінним чергуванням і безперебійного розміщення зображень і відео як вхідних даних. Моделі демонструють вражаючу адаптованість до ряду завдань із зображеннями та відео, таких як візуальні відповіді на запитання, завдання з субтитрами та візуальні відповіді на запитання з кількома варіантами вибору, встановлюючи нові стандарти продуктивності, використовуючи підказки для конкретних завдань у короткочасному навчанні.

Яка мета? 

  • Щоб досягти прогресу в наданні мультимодальним моделям можливості швидко навчатися та виконувати нові завдання на основі коротких інструкцій:
    • Широко поширена парадигма попереднього навчання моделі на великій кількості контрольованих даних, а потім її тонкого налаштування для конкретного завдання, потребує ресурсів і вимагає тисяч анотованих точок даних разом із ретельним налаштуванням гіперпараметрів для кожного завдання. 
    • Сучасні моделі, які використовують контрастний об’єктив, дозволяють швидко адаптуватися до нових завдань, але не вирішують більш відкритих завдань, таких як субтитри чи візуальні відповіді на запитання, оскільки їм бракує можливостей генерування мови. 
    • Це дослідження має на меті представити нову модель, яка ефективно вирішує ці проблеми та демонструє чудову продуктивність у режимах з низьким рівнем даних.

Як підійти до проблеми?

  • DeepMind представив Flamingo, VLM, розроблений для короткочасного навчання різноманітним відкритим баченням і мовним завданням, використовуючи лише кілька прикладів введення/виведення.
  • Моделі Flamingo — це візуально обумовлені авторегресійні моделі генерації тексту, які можуть обробляти текстові маркери, змішані з зображеннями та/або відео, і генерувати текст як вихідні дані.
  • Архітектура Flamingo включає дві взаємодоповнюючі попередньо навчені та заморожені моделі:
    • Модель зору, здатна «сприймати» візуальні сцени.
    • Велика модель мови, завданням якої є виконання основних міркувань.
  • Компоненти нової архітектури інтегрують ці моделі таким чином, щоб зберегти знання, отримані під час попереднього навчання, яке потребує інтенсивного обчислення.
  • Крім того, моделі Flamingo мають архітектуру на основі Perceiver, що дозволяє їм завантажувати зображення або відео високої роздільної здатності. Ця архітектура може генерувати фіксовану кількість візуальних маркерів на зображення/відео з широкого та змінного набору функцій візуального введення.

Які результати?

  • Дослідження показує, що, подібно до LLM, які добре навчаються, VLM можуть навчатися на кількох прикладах введення/виведення для завдань із розуміння зображень і відео, таких як класифікація, субтитри або відповіді на запитання.
  • Flamingo встановлює новий стандарт у швидкому навчанні, демонструючи чудову продуктивність у широкому діапазоні 16 мультимодальних мовних завдань і завдань із розумінням зображень/відео.
  • Для 6 із цих 16 завдань Flamingo перевершує продуктивність точно налаштованого сучасного рівня техніки, навіть якщо він використовує лише 32 приклади для конкретних завдань – приблизно в 1000 разів менше навчальних даних для конкретних завдань, ніж поточні найефективніші моделі.
Мовна модель бачення фламінго

Де дізнатися більше про це дослідження?

Де ви можете отримати код реалізації?

  • DeepMind не випускав офіційну реалізацію Flamingo. 
  • Ви можете знайти реалізацію представленого підходу з відкритим кодом у OpenFlamingo Github Repo.
  • Доступна альтернативна реалізація PyTorch тут.

5. BLIP-2 від Salesforce

Підсумки 

BLIP-2 — це ефективна загальна структура попереднього навчання для моделей зору та мови, розроблена для того, щоб обійти все більш непомірну вартість попереднього навчання великомасштабних моделей. BLIP-2 використовує готові заморожені попередньо навчені кодери зображень і заморожені великі мовні моделі для початкового попереднього навчання візуальної мови, включаючи легкий Querying Transformer, попередньо навчений у два етапи. Перший етап ініціює навчання репрезентації візуальної мови за допомогою кодера замороженого зображення, а другий етап забезпечує генеративне навчання візуального представлення мови з моделі замороженої мови. Незважаючи на значно меншу кількість параметрів, які можна навчити, BLIP-2 перевершує найсучасніші методи, перевершуючи Flamingo80B від DeepMind на 8.7% на VQAv2 з нульовим ударом із у 54 рази меншими параметрами, які можна навчити. Модель також демонструє багатообіцяючі можливості нульового генерування зображення в текст, дотримуючись інструкцій природною мовою.

Фреймворк BLIP-2
Огляд структури BLIP-2

Яка мета? 

  • Щоб отримати найсучаснішу продуктивність у завданнях мови візуалізації, одночасно зменшуючи витрати на обчислення.

Як підійти до проблеми?

  • Команда Salesforce представила нову структуру попереднього навчання мовою бачення під назвою BLIP-2, Bвідстібання Lмова-Iмаг Pповторне навчання із замороженими унімодальними моделями:
    • Попередньо навчені унімодальні моделі залишаються замороженими під час попереднього навчання, щоб зменшити витрати на обчислення та уникнути проблеми катастрофічного забування.
    • Щоб полегшити крос-модальне вирівнювання та подолати розрив модальності між попередньо навченими моделями зору та попередньо навченими мовними моделями, команда пропонує легкий перетворювач запитів (Q-Former), який діє як вузьке місце інформації між кодувальником замороженого зображення та замороженим магістр права
    • Q-former попередньо навчений нової двоетапної стратегії:
      • На першому етапі попереднього навчання виконується навчання репрезентації зорової мови. Це змушує Q-Former вивчати візуальне представлення, яке найбільше відповідає тексту.
      • На другому етапі попереднього навчання виконується генеративне навчання від бачення до мови шляхом підключення виходу Q-Former до замороженого LLM. Q-Former навчений так, що його вихідне візуальне представлення може бути інтерпретоване LLM.

Які результати?

  • BLIP-2 забезпечує виняткові найсучасніші результати для різноманітних завдань, пов’язаних із мовою зору, охоплюючи візуальні відповіді на запитання, підписи до зображень і пошук текстових зображень.
    • Наприклад, він перевершує Flamingo на 8.7% на VQAv2 з нульовим ударом.
  • Крім того, ця видатна продуктивність досягається завдяки значно вищій ефективності комп’ютера:
    • BLIP-2 перевершує Flamingo-80B, використовуючи в 54 рази менше параметрів, які можна навчити. 
  • BLIP-2 має здатність здійснювати нульову генерацію зображення в текст у відповідь на інструкції природної мови, тим самим прокладаючи шлях для розвитку таких навичок, як візуальне мислення та візуальна розмова.
  • Нарешті, важливо відзначити, що BLIP-2 — це універсальний підхід, який може використовувати складніші унімодальні моделі для подальшого підвищення ефективності попереднього навчання зорової мови.
Результати BLIP-2
Результати BLIP-2

Де дізнатися більше про це дослідження?

Де ви можете отримати код реалізації?

Офіційна реалізація BLIP-2 доступна на GitHub.

6. LLaMA від Meta AI

Підсумки 

Команда Meta AI стверджує, що менші моделі, навчені на більшій кількості токенів, легше перенавчати та налаштовувати для конкретних програм продукту. Тому вводять LlaMA (Lарг Laмова Mодель Мета AI), набір базових мовних моделей із параметрами від 7B до 65B. LLaMA 33B і 65B були навчені на 1.4 трильйона токенів, тоді як найменша модель, LLaMA 7B, була навчена на одному трильйоні токенів. Вони використовували виключно загальнодоступні набори даних, незалежно від конфіденційних чи обмежених даних. Команда також реалізувала ключові архітектурні вдосконалення та методи оптимізації швидкості навчання. Отже, LLaMA-13B перевершив GPT-3, будучи більш ніж у 10 разів меншим, а LLaMA-65B продемонстрував конкурентоспроможність з PaLM-540B.

Яка мета? 

  • Щоб продемонструвати доцільність навчання найефективніших моделей виключно на загальнодоступних наборах даних, не покладаючись на власні чи обмежені джерела даних.
  • Щоб надати дослідницькому співтовариству менші та ефективніші моделі та, таким чином, дозволити тим, хто не має доступу до великої кількості інфраструктури, вивчати великі мовні моделі.

Як підійти до проблеми?

  • Для навчання моделі LLaMA дослідники використовували лише загальнодоступні дані, сумісні з відкритим кодом.
  • Вони також внесли кілька покращень у стандартну архітектуру Transformer:
    • Приймаючи методологію GPT-3, стабільність навчання була підвищена за рахунок нормалізації входу для кожного підрівня трансформатора, а не нормалізації виходу.
    • Натхненні моделями PaLM, дослідники замінили нелінійність ReLU функцією активації SwiGLU, щоб покращити продуктивність.
    • Натхненний Су та інші (2021), вони усунули абсолютні позиційні вбудовування та замість цього включили поворотні позиційні вбудовування (RoPE) на кожному рівні мережі.
  • Нарешті, команда Meta AI покращила швидкість навчання своєї моделі за допомогою:
    • Використання ефективного причинно-наслідкового привернення уваги до багатьох голов, не зберігаючи вагові коефіцієнти уваги або обчислюючи замасковані показники ключів/запитів.
    • Використання контрольних точок для мінімізації повторно обчислених активацій під час зворотного проходу.
    • Перекриття обчислення активацій і зв’язку між графічними процесорами через мережу (через операції all_reduce).

Які результати?

  • LLaMA-13B перевершує GPT-3, незважаючи на те, що він більш ніж у 10 разів менший, тоді як LLaMA-65B тримається в порівнянні з PaLM-540B.

Де дізнатися більше про це дослідження?

Де ви можете отримати код реалізації?

  • Meta AI надає доступ до LLaMA академічним дослідникам, особам, пов’язаним з урядом, громадянським суспільством, академічними установами та глобальними галузевими дослідницькими лабораторіями на основі індивідуальної оцінки випадку. Щоб подати заявку, перейдіть до наступного GitHub сховище.

7. GPT-4 від OpenAI

Підсумки 

GPT-4 це великомасштабна мультимодальна модель, яка приймає вхідні зображення та текст і генерує текстові виходи. З міркувань конкуренції та безпеки конкретні подробиці про архітектуру та навчання моделі не надаються. З точки зору продуктивності GPT-4 перевершує попередні мовні моделі за традиційними тестами та показує значні покращення в розумінні намірів користувача та властивості безпеки. Модель також досягає продуктивності на рівні людини на різних іспитах, включаючи найкращі 10% балів на симульованому єдиному іспиті адвоката.

Яка мета? 

  • Розробити великомасштабну мультимодальну модель, яка може приймати вхідні зображення та текст і створювати текстові виходи. 
  • Для розробки інфраструктури та методів оптимізації, які передбачувано поводяться в широкому діапазоні масштабів.

Як підійти до проблеми?

  • Зважаючи на наслідки для конкуренції та безпеки, OpenAI вирішила не розголошувати подробиці щодо архітектури, розміру моделі, апаратного забезпечення, навчальних обчислень, побудови набору даних і методів навчання.
  • Вони розкривають, що:
    • GPT-4 — це модель на основі Transformer, попередньо навчена передбачати наступний маркер у документі.
    • Він використовує загальнодоступні дані та сторонні ліцензовані дані.
    • Модель було налаштовано за допомогою навчання з підкріпленням із зворотного зв’язку людини (RLHF).
  • Непідтверджена інформація свідчить про те, що GPT-4 — це не єдина щільна модель, як її попередники, а потужна коаліція з восьми окремих моделей, кожна з яких містить приголомшливі 220 мільярдів параметрів.
Продуктивність GPT-4

Які результати?

  • GPT-4 досягає продуктивності на рівні людини на більшості професійних і академічних іспитів, особливо в 10% найкращих результатів на імітаційному єдиному іспиті адвоката.
  • Попередньо навчена базова модель GPT-4 перевершує існуючі мовні моделі та попередні сучасні системи на традиційних тестах НЛП, без спеціального тестування або додаткових протоколів навчання.
  • GPT-4 демонструє суттєве покращення у відстеженні намірів користувача, оскільки його відповіді надають перевагу порівняно з відповідями GPT-3.5 у 70.2% із 5,214 запитів від ChatGPT та OpenAI API.
  • Властивості безпеки GPT-4 значно покращилися порівняно з GPT-3.5: на 82% менше відповідей на запити забороненого вмісту та на 29% більше відповідності політикам для конфіденційних запитів (наприклад, медичні поради та самоушкодження).

Де дізнатися більше про це дослідження?

Де ви можете отримати код реалізації?

  • Реалізація коду GPT-4 недоступна.

Застосування великих (візійних) мовних моделей у реальному світі

Найбільш значні прориви в дослідженнях штучного інтелекту за останні роки відбулися завдяки великим моделям штучного інтелекту, навченим на величезних наборах даних. Ці моделі демонструють вражаючу продуктивність, і захоплююче уявити, як ШІ може революціонізувати цілі галузі, такі як обслуговування клієнтів, маркетинг, електронна комерція, охорона здоров’я, розробка програмного забезпечення, журналістика та багато інших.

Великі мовні моделі мають численні застосування в реальному світі. GPT-4 містить наступне:

  • Розуміння та генерація природної мови для чат-ботів і віртуальних помічників.
  • Машинний переклад між мовами.
  • Реферат статей, доповідей або інших текстових документів.
  • Аналіз настроїв для дослідження ринку або моніторингу соціальних мереж.
  • Створення контенту для маркетингу, соціальних медіа чи творчого письма.
  • Системи запитань і відповідей для підтримки клієнтів або баз знань.
  • Класифікація тексту для фільтрації спаму, категоризації за темами або організації документів.
  • Персоналізовані інструменти для вивчення мови та навчання.
  • Допомога у створенні коду та розробці програмного забезпечення.
  • Аналіз та супровід медичної, юридичної та технічної документації.
  • Інструменти доступності для людей з обмеженими можливостями, такі як перетворення тексту в мовлення та перетворення мовлення в текст.
  • Послуги розпізнавання мовлення та транскрипції.

Якщо додати візуальну частину, то області можливих застосувань розширяться:

Дуже цікаво стежити за нещодавніми досягненнями у сфері штучного інтелекту та думати про їхні потенційні застосування в реальному світі. Однак перед розгортанням цих моделей у реальному житті нам потрібно розглянути відповідні ризики та обмеження, які, на жаль, досить значні.

Ризики та обмеження

Якщо ви запитаєте GPT-4 про його ризики та обмеження, він, швидше за все, надасть вам довгий список відповідних проблем. Проглянувши цей список і додавши деякі додаткові міркування, я отримав наступний набір ключових ризиків і обмежень, які мають сучасні великі мовні моделі:

  1. Упередженість і дискримінація: Ці моделі навчаються на величезній кількості текстових даних, які часто містять упередження та дискримінаційний вміст. У результаті отримані результати можуть ненавмисно увічнити стереотипи, образливу мову та дискримінацію за такими факторами, як стать, раса чи релігія.
  2. Дезінформація: Великі мовні моделі можуть генерувати фактично неправильний, оманливий або застарілий вміст. Хоча моделі навчаються на різноманітних джерелах, вони не завжди можуть надавати найточнішу чи найновішу інформацію. Часто це трапляється через те, що модель надає пріоритет генерації результатів, які є граматично правильними або здаються зв’язними, навіть якщо вони вводять в оману.
  3. Відсутність розуміння: хоча ці моделі, здається, розуміють людську мову, вони працюють переважно шляхом визначення закономірностей і статистичних зв’язків у навчальних даних. Вони не мають глибокого розуміння контенту, який вони генерують, що іноді може призвести до безглуздих або нерелевантних результатів.
  4. Невідповідний вміст: мовні моделі іноді можуть генерувати вміст, який є образливим, шкідливим або неприйнятним. Хоча докладаються зусилля, щоб звести до мінімуму такий вміст, він все одно може статися через характер навчальних даних і нездатність моделей розпізнати контекст або наміри користувача.

Висновок

Великі мовні моделі, безсумнівно, зробили революцію в області обробки природної мови та продемонстрували величезний потенціал у підвищенні продуктивності в різних ролях і галузях. Їхня здатність генерувати текст, схожий на людину, автоматизувати повсякденні завдання та надавати допомогу в творчих і аналітичних процесах зробила їх незамінними інструментами в сучасному швидкоплинному, орієнтованому на технології світі.

Проте вкрай важливо визнати та зрозуміти обмеження та ризики, пов’язані з цими потужними моделями. Не можна ігнорувати такі проблеми, як упередженість, дезінформація та можливість зловмисного використання. Оскільки ми продовжуємо інтегрувати ці технології, керовані штучним інтелектом, у наше повсякденне життя, важливо знайти баланс між використанням їхніх можливостей і забезпеченням нагляду з боку людини, особливо в чутливих ситуаціях і ситуаціях високого ризику.

Якщо нам вдасться відповідально запровадити генеративні технології штучного інтелекту, ми прокладемо шлях до майбутнього, де штучний інтелект і людський досвід працюватимуть разом, щоб стимулювати інновації та створювати кращий світ для всіх.

Вам подобається ця стаття? Підпишіться на отримання нових оновлень щодо досліджень ШІ.

Ми повідомимо вас, коли випустимо більше таких підсумкових статей, як ця.

Часова мітка:

Більше від ТОПБОТИ