На этой неделе в AI, 18 августа: OpenAI испытывает финансовые проблемы • Стабильность AI объявляет о выпуске StableCode - KDnuggets

На этой неделе в ИИ, 18 августа: у OpenAI финансовые проблемы • Стабильность ИИ анонсирует StableCode – KDnuggets

Исходный узел: 2833080

### АЛЬТ ###
Изображение создано редактором с Midjourney
 

Добро пожаловать в выпуск этой недели «Эта неделя в ИИ» на KDnuggets. Этот еженедельный пост предназначен для того, чтобы держать вас в курсе самых важных событий в быстро развивающемся мире искусственного интеллекта. От новаторских заголовков, формирующих наше понимание роли ИИ в обществе, до наводящих на размышления статей, проницательных учебных ресурсов и ярких исследований, расширяющих границы наших знаний, — в этом посте представлен всесторонний обзор текущей ситуации с ИИ. Это еженедельное обновление предназначено для того, чтобы держать вас в курсе событий в этой постоянно развивающейся области. Оставайтесь с нами и приятного чтения!

 
В разделе «Заголовки» обсуждаются главные новости и события прошедшей недели в области искусственного интеллекта. Информация варьируется от государственной политики в области искусственного интеллекта до технологических достижений и корпоративных инноваций в области искусственного интеллекта.

 
???? ChatGPT в беде: OpenAI может обанкротиться к 2024 году, ИИ-бот обходится компании в $700,000 XNUMX каждый день

OpenAI сталкивается с финансовыми проблемами из-за высоких затрат на использование ChatGPT и других сервисов ИИ. Несмотря на быстрый рост на начальном этапе, в последние месяцы количество пользователей ChatGPT сократилось. OpenAI изо всех сил пытается эффективно монетизировать свою технологию и получать стабильный доход. Между тем, он продолжает сжигать наличные с угрожающей скоростью. В условиях обострения конкуренции и нехватки графических процессоров на предприятиях, мешающих разработке моделей, OpenAI необходимо срочно найти пути к прибыльности. Если этого не произойдет, новаторский стартап в области искусственного интеллекта может оказаться на пороге банкротства.

 
???? Stability AI анонсирует StableCode, помощник по кодированию AI для разработчиков

Stability AI выпустила StableCode, свой первый генеративный ИИ-продукт, оптимизированный для разработки программного обеспечения. StableCode включает в себя несколько моделей, обученных на более чем 500 миллиардах токенов кода, для обеспечения интеллектуального автозаполнения, реагирования на инструкции на естественном языке и управления большими участками кода. В то время как диалоговый ИИ уже может писать код, StableCode специально создан для повышения производительности программиста за счет понимания структуры кода и зависимостей. Благодаря специализированному обучению и моделям, которые могут обрабатывать длинные контексты, StableCode стремится улучшить рабочие процессы разработчиков и снизить входной барьер для начинающих программистов. Запуск представляет собой набег Stability AI на инструменты кодирования с помощью ИИ в условиях растущей конкуренции в этой области.

 
???? Представляем Superalignment от OpenAI

OpenAI активно работает над устранением потенциальных рисков, связанных со сверхинтеллектуальным ИИ, с помощью своей новой команды Superalignment, которая использует такие методы, как обучение с подкреплением на основе отзывов людей, для согласования систем ИИ. Ключевыми целями являются разработка масштабируемых методов обучения с использованием других систем искусственного интеллекта, проверка надежности модели и стресс-тестирование полного конвейера выравнивания даже с намеренно смещенными моделями. В целом, OpenAI стремится показать, что машинное обучение можно безопасно проводить с помощью новаторских подходов к ответственному управлению сверхразумом.

 
???? Учитесь во время поиска (и просмотра) с помощью генеративного ИИ

Google объявляет о нескольких обновлениях своих возможностей искусственного интеллекта Search Engine Generation (SGE), включая определения при наведении для научных/исторических тем, выделение синтаксиса с цветовой кодировкой для обзоров кода и ранний эксперимент под названием «SGE во время просмотра», который обобщает ключевые моменты и помогает пользователям исследовать страницы при чтении подробного контента в Интернете. Они направлены на улучшение понимания сложных тем, улучшение усвоения информации о кодировании и облегчение навигации и обучения при просмотре пользователями. Обновления представляют собой постоянные усилия Google по развитию своего опыта поиска с помощью ИИ на основе отзывов пользователей с упором на понимание и извлечение ключевых деталей из сложного веб-контента.

 
???? Вместе.ai расширяет Llama2 до контекстного окна размером 32 КБ

LLaMA-2-7B-32K — это языковая модель с длинным контекстом с открытым исходным кодом, разработанная Together Computer, которая увеличивает длину контекста LLaMA-2 от Meta до 32 тыс. токенов. Он использует такие оптимизации, как FlashAttention-2, для более эффективного логического вывода и обучения. Модель была предварительно обучена с использованием смеси данных, включая книги, документы и учебные данные. Приведены примеры для тонкой настройки длинных задач контроля качества и суммирования. Пользователи могут получить доступ к модели через Hugging Face или использовать OpenChatKit для индивидуальной тонкой настройки. Как и все языковые модели, LLaMA-2-7B-32K может генерировать предвзятое или неправильное содержимое, требующее осторожности при использовании.

 
В разделе «Статьи» представлено множество наводящих на размышления статей об искусственном интеллекте. Каждая статья глубоко погружается в определенную тему, предлагая читателям информацию о различных аспектах ИИ, включая новые методы, революционные подходы и новаторские инструменты.

 
📰 Шпаргалка по LangChain

С помощью LangChain разработчики могут создавать эффективные приложения на основе ИИ, не изобретая велосипед. Его компонуемая структура позволяет легко смешивать и сочетать такие компоненты, как LLM, шаблоны подсказок, внешние инструменты и память. Это ускоряет создание прототипов и обеспечивает беспрепятственную интеграцию новых возможностей с течением времени. Независимо от того, хотите ли вы создать чат-бота, QA-бота или многоэтапного агента рассуждений, LangChain предоставляет строительные блоки для быстрой сборки продвинутого ИИ.

 
📰 Как использовать ChatGPT для преобразования текста в презентацию PowerPoint

В статье описывается двухэтапный процесс использования ChatGPT для преобразования текста в презентацию PowerPoint: сначала текст обобщается в заголовки слайдов и содержимое, а затем генерируется код Python для преобразования сводки в формат PPTX с использованием библиотеки python-pptx. Это позволяет быстро создавать привлекательные презентации из длинных текстовых документов, преодолевая утомительную ручную работу. Предоставляются четкие инструкции по созданию подсказок ChatGPT и запуску кода, предлагая эффективное автоматизированное решение для нужд презентации.

 
📰 Открытые проблемы в исследованиях LLM

В статье представлен обзор 10 ключевых направлений исследований по улучшению больших языковых моделей: уменьшение галлюцинаций, оптимизация длины/конструкции контекста, включение мультимодальных данных, ускорение моделей, проектирование новых архитектур, разработка альтернатив графическим процессорам, таких как фотонные чипы, создание пригодных для использования агентов, улучшение обучения на основе человеческая обратная связь, улучшение интерфейсов чата и расширение на языки, отличные от английского. Он цитирует соответствующие документы в этих областях, отмечая такие проблемы, как представление человеческих предпочтений для обучения с подкреплением и создание моделей для языков с низким уровнем ресурсов. Автор приходит к выводу, что, хотя некоторые вопросы, такие как многоязычие, более решаемы, другие, такие как архитектура, потребуют большего количества прорывов. В целом, как технические, так и нетехнические знания исследователей, компаний и сообщества будут иметь решающее значение для позитивного управления LLM.

 
📰 Почему вам (вероятно) не нужно настраивать LLM

В статье представлен обзор 10 ключевых направлений исследований по улучшению больших языковых моделей: уменьшение галлюцинаций, оптимизация длины/конструкции контекста, включение мультимодальных данных, ускорение моделей, проектирование новых архитектур, разработка альтернатив графическим процессорам, таких как фотонные чипы, создание пригодных для использования агентов, улучшение обучения на основе человеческая обратная связь, улучшение интерфейсов чата и расширение на языки, отличные от английского. Он цитирует соответствующие документы в этих областях, отмечая такие проблемы, как представление человеческих предпочтений для обучения с подкреплением и создание моделей для языков с низким уровнем ресурсов. Автор приходит к выводу, что, хотя некоторые вопросы, такие как многоязычие, более решаемы, другие, такие как архитектура, потребуют большего количества прорывов. В целом, как технические, так и нетехнические знания исследователей, компаний и сообщества будут иметь решающее значение для позитивного управления LLM.

 
📰 Рекомендации по использованию модели OpenAI GPT

В статье описываются передовые методы получения высококачественных результатов при использовании моделей OpenAI GPT, основанные на опыте сообщества. Он рекомендует предоставлять подробные подсказки с такими особенностями, как длина и личность; многошаговые инструкции; примеры для подражания; ссылки и цитаты; время для критического мышления; и выполнение кода для точности. Следование этим советам по инструктированию моделей, таким как указание шагов и персонажей, может привести к более точным, релевантным и настраиваемым результатам. Руководство призвано помочь пользователям эффективно структурировать подсказки, чтобы максимально использовать мощные генеративные возможности OpenAI.

 
📰 Мы все ошибаемся в отношении ИИ

Автор утверждает, что текущие возможности ИИ недооцениваются, используя такие примеры, как творчество, поиск и персонализация, чтобы опровергнуть распространенные заблуждения. Он утверждает, что ИИ может быть творческим, рекомбинируя концепции, а не просто генерируя случайные идеи; это не просто мощная поисковая система, такая как Google; и это может развивать личные отношения, а не только общие навыки. Не зная, какие приложения окажутся наиболее полезными, автор призывает к непредвзятости, а не пренебрежительному подходу, подчеркивая, что лучший способ определить потенциал ИИ — это постоянное практическое исследование. Он приходит к выводу, что наше воображение об ИИ ограничено, и его использование, вероятно, намного превосходит текущие прогнозы.

 
В разделе «Инструменты» перечислены полезные приложения и сценарии, созданные сообществом для тех, кто хочет заняться практическими приложениями ИИ. Здесь вы найдете ряд типов инструментов, от обширных комплексных баз кода до небольших нишевых скриптов. Обратите внимание, что инструменты передаются без одобрения и без каких-либо гарантий. Сделайте свою собственную домашнюю работу над любым программным обеспечением перед установкой и использованием!

 
🇧🇷 MetaGPT: многоагентная среда

MetaGPT принимает однострочное требование в качестве входных данных и выводит пользовательские истории / конкурентный анализ / требования / структуры данных / API / документы и т. д. Внутри MetaGPT есть менеджеры по продуктам / архитекторы / менеджеры проектов / инженеры. Он обеспечивает весь процесс компании-разработчика программного обеспечения вместе с тщательно спланированными СОПами.

 
🇧🇷 Тренер GPT LLM

Цель этого проекта — исследовать новый экспериментальный конвейер для обучения высокопроизводительной модели для конкретной задачи. Мы пытаемся абстрагироваться от всей сложности, поэтому максимально просто перейти от идеи к производительной полностью обученной модели.

Просто введите описание вашей задачи, и система сгенерирует набор данных с нуля, проанализирует его в нужном формате и точно настроит для вас модель LLaMA 2.

 
🇧🇷 ДокторГПТ

DoctorGPT — это большая языковая модель, позволяющая сдать экзамен на получение медицинской лицензии в США. Это проект с открытым исходным кодом, цель которого — предоставить каждому своего личного врача. DoctorGPT — это версия большой языковой модели Llama2 с 7 миллиардами параметров от Meta, которая была доработана на наборе данных медицинского диалога, а затем улучшена с помощью обучения с подкреплением и конституционального ИИ. Поскольку размер модели составляет всего 3 гигабайта, она подходит для любого локального устройства, поэтому для ее использования не нужно платить за API.

 
 

Отметка времени:

Больше от КДнаггетс