Цього тижня в AI, 18 серпня: OpenAI у фінансових труднощах • Stability AI анонсує StableCode - KDnuggets

Цього тижня в AI, 18 серпня: OpenAI у фінансових труднощах • Stability AI анонсує StableCode – KDnuggets

Вихідний вузол: 2833080

### ALT ###
Зображення створено Editor за допомогою Midjourney
 

Ласкаво просимо до цьоготижневого випуску «Цей тиждень у ШІ» на KDnuggets. Ця підібрана щотижнева публікація має на меті тримати вас у курсі найпереконливіших подій у світі штучного інтелекту, що швидко розвивається. Від революційних заголовків, які формують наше розуміння ролі штучного інтелекту в суспільстві, до статей, що спонукають до роздумів, проникливих навчальних ресурсів і висвітлених досліджень, що розширюють межі наших знань, ця публікація містить вичерпний огляд поточного ландшафту ШІ. Це щотижневе оновлення розроблено, щоб тримати вас у курсі та бути в курсі цієї галузі, що постійно розвивається. Залишайтеся з нами та приємного читання!

 
У розділі «Заголовки» обговорюються головні новини та події минулого тижня у сфері штучного інтелекту. Інформація варіюється від урядової політики ШІ до технологічних досягнень і корпоративних інновацій у ШІ.

 
💡 ChatGPT у біді: OpenAI може збанкрутувати до 2024 року, бот ШІ коштує компанії 700,000 XNUMX доларів щодня

OpenAI стикається з фінансовими проблемами через високу вартість роботи ChatGPT та інших служб ШІ. Незважаючи на швидке раннє зростання, за останні місяці кількість користувачів ChatGPT скоротилася. OpenAI намагається ефективно монетизувати свою технологію та отримувати стабільний дохід. Тим часом він продовжує спалювати готівку із загрозливою швидкістю. Із загостренням конкуренції та дефіцитом корпоративних GPU, що перешкоджає розробці моделі, OpenAI потрібно терміново знайти шляхи до прибутковості. Якщо він цього не зробить, на горизонті може бути банкрутство новаторського стартапу зі штучним інтелектом.

 
💡 Stability AI анонсує StableCode, помічника з кодування AI для розробників

Stability AI випустив StableCode, свій перший генеративний продукт AI, оптимізований для розробки програмного забезпечення. StableCode включає в себе кілька моделей, навчених на понад 500 мільярдах маркерів коду, щоб забезпечити інтелектуальне автозавершення, реагувати на інструкції природною мовою та керувати великими ділянками коду. У той час як розмовний штучний інтелект вже може писати код, StableCode спеціально створений для підвищення продуктивності програміста завдяки розумінню структури коду та залежностей. Завдяки спеціалізованому навчанню та моделям, які можуть обробляти довгі контексти, StableCode прагне покращити робочі процеси розробників і знизити бар’єри для початківців програмістів. Запуск представляє набіг Stability AI на інструменти кодування за допомогою штучного інтелекту в умовах зростаючої конкуренції в космосі.

 
💡 Представляємо Superalignment від OpenAI

OpenAI активно працює над усуненням потенційних ризиків, пов’язаних із надрозумним штучним інтелектом, через свою нову команду Superalignment, яка використовує такі методи, як підсилювальне навчання за відгуками людини, щоб узгодити системи ШІ. Основними цілями є розробка масштабованих методів навчання з використанням інших систем штучного інтелекту, перевірка надійності моделі та стрес-тестування повного конвеєра вирівнювання навіть з навмисно зміщеними моделями. Загалом OpenAI прагне показати, що машинне навчання можна безпечно проводити за допомогою новаторських підходів до відповідального керування суперінтелектом.

 
💡 Навчайтеся під час пошуку (і перегляду) за допомогою генеративного штучного інтелекту

Google оголошує про кілька оновлень своїх можливостей AI Search Engine Generation (SGE), включаючи визначення наведення курсора для наукових/історичних тем, підсвічування синтаксису кольором для огляду коду та ранній експеримент під назвою «SGE під час перегляду», який узагальнює ключові моменти та допомагає користувачам досліджувати сторінки під час читання довгострокового вмісту в Інтернеті. Вони спрямовані на покращення розуміння складних тем, покращення засвоєння інформації про кодування та сприяння навігації та навчанню під час перегляду користувачів. Оновлення вказують на те, що Google постійно намагається розвивати свій досвід пошуку зі штучним інтелектом на основі відгуків користувачів, зосереджуючись на розумінні та вилученні ключових деталей зі складного веб-вмісту.

 
💡 Together.ai розширює Llama2 до контекстного вікна 32k

LLaMA-2-7B-32K — це модель мови з відкритим кодом і довгим контекстом, розроблена компанією Together Computer, яка розширює довжину контексту LLaMA-2 від Meta до 32K токенів. Він використовує такі оптимізації, як FlashAttention-2, щоб забезпечити ефективніші висновки та навчання. Модель було попередньо навчено з використанням суміші даних, включаючи книги, документи та навчальні дані. Наведено приклади для точного налаштування довгострокових завдань із забезпечення якості та узагальнення. Користувачі можуть отримати доступ до моделі через Hugging Face або використовувати OpenChatKit для індивідуального тонкого налаштування. Як і всі мовні моделі, LLaMA-2-7B-32K може генерувати упереджений або неправильний вміст, що вимагає обережності при використанні.

 
У розділі «Статті» представлено низку роздумів про штучний інтелект. Кожна стаття глибоко занурюється в певну тему, пропонуючи читачам зрозуміти різні аспекти штучного інтелекту, включаючи нові методи, революційні підходи та новаторські інструменти.

 
📰 Шпаргалка LangChain

За допомогою LangChain розробники можуть створювати потужні додатки на основі мови ШІ, не винаходячи колеса. Його складна структура дозволяє легко змішувати та поєднувати такі компоненти, як LLM, шаблони підказок, зовнішні інструменти та пам’ять. Це прискорює створення прототипів і забезпечує плавну інтеграцію нових можливостей з часом. Незалежно від того, чи хочете ви створити чат-бота, бота для контролю якості чи багатоетапного агента міркування, LangChain надає будівельні блоки для швидкого збирання розширеного ШІ.

 
📰 Як використовувати ChatGPT для перетворення тексту в презентацію PowerPoint

У статті описано двоетапний процес використання ChatGPT для перетворення тексту в презентацію PowerPoint, спочатку підсумовуючи текст у заголовки слайдів і вміст, а потім генеруючи код Python для перетворення резюме у формат PPTX за допомогою бібліотеки python-pptx. Це дозволяє швидко створювати цікаві презентації з довгих текстових документів, долаючи виснажливу ручну роботу. Надається чітка інструкція щодо створення підказок ChatGPT і запуску коду, що пропонує ефективне автоматизоване рішення для потреб презентації.

 
📰 Відкриті проблеми в дослідженні LLM

У статті представлено огляд 10 ключових напрямів дослідження для вдосконалення великих мовних моделей: зменшення галюцинацій, оптимізація довжини/побудови контексту, включення мультимодальних даних, прискорення моделей, розробка нових архітектур, розробка альтернатив GPU, таких як фотонні чіпи, створення придатних для використання агентів, покращення навчання з людський відгук, покращення інтерфейсів чату та розширення на неанглійські мови. У ньому цитуються відповідні документи в цих сферах, відзначаються проблеми, такі як представлення людських уподобань щодо навчання з підкріпленням і створення моделей для мов із низьким ресурсом. Автор робить висновок, що в той час як деякі питання, такі як багатомовність, є більш піддатливими, інші, такі як архітектура, потребуватимуть більших проривів. Загалом, як технічний, так і нетехнічний досвід дослідників, компаній і спільноти будуть мати вирішальне значення для позитивного спрямування LLM.

 
📰 Чому вам (ймовірно) не потрібно точно налаштовувати LLM

У статті представлено огляд 10 ключових напрямів дослідження для вдосконалення великих мовних моделей: зменшення галюцинацій, оптимізація довжини/побудови контексту, включення мультимодальних даних, прискорення моделей, розробка нових архітектур, розробка альтернатив GPU, таких як фотонні чіпи, створення придатних для використання агентів, покращення навчання з людський відгук, покращення інтерфейсів чату та розширення на неанглійські мови. У ньому цитуються відповідні документи в цих сферах, відзначаються проблеми, такі як представлення людських уподобань щодо навчання з підкріпленням і створення моделей для мов із низьким ресурсом. Автор робить висновок, що в той час як деякі питання, такі як багатомовність, є більш піддатливими, інші, такі як архітектура, потребуватимуть більших проривів. Загалом, як технічний, так і нетехнічний досвід дослідників, компаній і спільноти будуть мати вирішальне значення для позитивного спрямування LLM.

 
📰 Найкращі методи використання моделі OpenAI GPT

У статті описано найкращі методи отримання високоякісних результатів під час використання моделей GPT OpenAI, спираючись на досвід спільноти. Він рекомендує надавати детальні підказки з такими особливостями, як довжина та особа; багатокрокова інструкція; приклади для наслідування; посилання та цитати; час для критичного мислення; і виконання коду для точності. Дотримуючись цих порад щодо інструкцій для моделей, як-от визначення кроків і персонажів, можна отримати точніші, релевантні та настроювані результати. Посібник спрямований на те, щоб допомогти користувачам ефективно структурувати підказки, щоб отримати максимальну віддачу від потужних генеративних можливостей OpenAI.

 
📰 Ми всі помиляємося щодо ШІ

Автор стверджує, що поточні можливості штучного інтелекту недооцінені, використовуючи такі приклади, як креативність, пошук і персоналізація, щоб протистояти поширеним неправильним уявленням. Він стверджує, що штучний інтелект може бути креативним, рекомбінуючи концепції, а не просто генеруючи випадкові ідеї; це не просто потужна пошукова система, як Google; і це може розвивати індивідуальні стосунки, а не лише загальні навички. Не впевнений, які програми виявляться найбільш корисними, автор закликає бути відкритим, а не зневажливо, підкреслюючи, що найкращий спосіб визначити потенціал штучного інтелекту – це продовжити практичне дослідження. Він приходить до висновку, що наша уява щодо штучного інтелекту обмежена, і його використання, ймовірно, значно перевищує поточні прогнози.

 
У розділі «Інструменти» перераховані корисні програми та сценарії, створені спільнотою для тих, хто хоче зайнятися практичними програмами ШІ. Тут ви знайдете ряд типів інструментів, від великої комплексної бази коду до невеликих нішевих скриптів. Зауважте, що інструменти надаються без схвалення та будь-яких гарантій. Виконайте власну домашню роботу з будь-яким програмним забезпеченням перед установкою та використанням!

 
🛠️ MetaGPT: мультиагентна структура

MetaGPT приймає вимогу до одного рядка як вхідні дані та виводить історії користувачів / конкурентний аналіз / вимоги / структури даних / API / документи тощо. Внутрішньо MetaGPT включає менеджерів продуктів / архітекторів / менеджерів проектів / інженерів. Він забезпечує весь процес розробки програмного забезпечення разом із ретельно організованими SOP.

 
🛠️ Тренер GPT LLM

Метою цього проекту є дослідження нового експериментального конвеєра для навчання високоефективної моделі для конкретного завдання. Ми намагаємося абстрагуватися від усієї складності, щоб було якомога легше перейти від ідеї до ефективної повністю навченої моделі.

Просто введіть опис свого завдання, і система згенерує набір даних з нуля, розбере його в потрібному форматі та налаштує для вас модель LLaMA 2.

 
🛠️ ДокторГПТ

DoctorGPT — це велика мовна модель, яка може скласти іспит на медичну ліцензію США. Це проект із відкритим вихідним кодом, метою якого є надання кожному власного приватного лікаря. DoctorGPT — це версія великої мовної моделі Llama2 від Meta Llama7 із 3 мільярдами параметрів, яка була налаштована на наборі даних медичного діалогу, а потім додатково вдосконалена за допомогою Reinforcement Learning & Constitution AI. Оскільки модель має розмір лише XNUMX Гігабайти, вона підходить для будь-якого локального пристрою, тому для її використання не потрібно платити за API.

 
 

Часова мітка:

Більше від KDnuggets