Esta semana em IA, 18 de agosto: OpenAI em problemas financeiros • Stability AI anuncia StableCode - KDnuggets

Esta semana em AI, 18 de agosto: OpenAI com problemas financeiros • Stability AI anuncia StableCode – KDnuggets

Nó Fonte: 2833080

###Alt###
Imagem criada por Editor com Midjourney
 

Bem-vindo à edição desta semana de “This Week in AI” no KDnuggets. Este post semanal com curadoria tem como objetivo mantê-lo a par dos desenvolvimentos mais atraentes no mundo da inteligência artificial, que avança rapidamente. De manchetes inovadoras que moldam nossa compreensão do papel da IA ​​na sociedade a artigos instigantes, recursos de aprendizado perspicazes e pesquisas destacadas que ultrapassam os limites de nosso conhecimento, esta postagem fornece uma visão abrangente do cenário atual da IA. Esta atualização semanal é projetada para mantê-lo atualizado e informado neste campo em constante evolução. Fique ligado e boa leitura!

 
A seção “Manchetes” discute as principais notícias e desenvolvimentos da última semana no campo da inteligência artificial. As informações variam de políticas governamentais de IA a avanços tecnológicos e inovações corporativas em IA.

 
💡 ChatGPT em apuros: OpenAI pode falir em 2024, bot de IA custa à empresa US$ 700,000 todos os dias

A OpenAI está enfrentando problemas financeiros devido aos altos custos de execução do ChatGPT e outros serviços de IA. Apesar do rápido crescimento inicial, a base de usuários do ChatGPT diminuiu nos últimos meses. A OpenAI está lutando para monetizar efetivamente sua tecnologia e gerar receita sustentável. Enquanto isso, continua a gastar dinheiro em um ritmo alarmante. Com o aquecimento da concorrência e a escassez de GPU empresarial dificultando o desenvolvimento do modelo, a OpenAI precisa encontrar urgentemente caminhos para a lucratividade. Se não conseguir, a falência pode estar no horizonte para a startup pioneira de IA.

 
💡 Stability AI anuncia StableCode, um assistente de codificação AI para desenvolvedores

A Stability AI lançou o StableCode, seu primeiro produto generativo de IA otimizado para desenvolvimento de software. O StableCode incorpora vários modelos treinados em mais de 500 bilhões de tokens de código para fornecer preenchimento automático inteligente, responder a instruções de linguagem natural e gerenciar longos períodos de código. Embora a IA conversacional já possa escrever código, o StableCode foi desenvolvido especificamente para aumentar a produtividade do programador, compreendendo a estrutura e as dependências do código. Com seu treinamento especializado e modelos que podem lidar com contextos longos, o StableCode visa aprimorar os fluxos de trabalho do desenvolvedor e diminuir a barreira de entrada para aspirantes a codificadores. O lançamento representa a incursão da Stability AI em ferramentas de codificação assistidas por IA em meio à crescente concorrência no espaço.

 
💡 Apresentando o superalinhamento da OpenAI

A OpenAI está trabalhando proativamente para lidar com os riscos potenciais da IA ​​superinteligente por meio de sua nova equipe Superalignment, que está usando técnicas como aprendizado por reforço a partir de feedback humano para alinhar sistemas de IA. Os principais objetivos são desenvolver métodos de treinamento escaláveis, alavancando outros sistemas de IA, validando a robustez do modelo e testando o pipeline de alinhamento completo, mesmo com modelos intencionalmente desalinhados. No geral, o OpenAI visa mostrar que o aprendizado de máquina pode ser conduzido com segurança por meio de abordagens pioneiras para orientar a superinteligência de forma responsável.

 
💡 Aprenda enquanto pesquisa (e navega) usando IA generativa

O Google está anunciando várias atualizações para seus recursos de IA do Search Engine Generation (SGE), incluindo definições de foco para tópicos de ciência/história, destaque de sintaxe com código de cores para visões gerais de código e um experimento inicial chamado “SGE durante a navegação” que resume os pontos-chave e ajuda os usuários explore páginas ao ler conteúdo longo na web. Eles visam aprimorar a compreensão de tópicos complexos, melhorar a digestão das informações de codificação e auxiliar a navegação e o aprendizado à medida que os usuários navegam. As atualizações representam os esforços contínuos do Google para desenvolver sua experiência de pesquisa de IA com base no feedback do usuário, com foco na compreensão e extração de detalhes importantes de conteúdo complexo da web.

 
💡 Together.ai estende Llama2 para uma janela de contexto de 32k

LLaMA-2-7B-32K é um modelo de linguagem de contexto longo de código aberto desenvolvido pela Together Computer que estende o comprimento de contexto dos tokens LLaMA-2 da Meta para 32K. Ele aproveita otimizações como FlashAttention-2 para permitir inferência e treinamento mais eficientes. O modelo foi pré-treinado usando uma mistura de dados, incluindo livros, artigos e dados instrucionais. Exemplos são fornecidos para ajuste fino em QA de formato longo e tarefas de resumo. Os usuários podem acessar o modelo via Hugging Face ou usar o OpenChatKit para um ajuste fino personalizado. Como todos os modelos de linguagem, o LLaMA-2-7B-32K pode gerar conteúdo tendencioso ou incorreto, exigindo cautela no uso.

 
A seção “Artigos” apresenta uma série de artigos instigantes sobre inteligência artificial. Cada artigo se aprofunda em um tópico específico, oferecendo aos leitores insights sobre vários aspectos da IA, incluindo novas técnicas, abordagens revolucionárias e ferramentas inovadoras.

 
📰 Folha de Dicas do LangChain

Com o LangChain, os desenvolvedores podem criar aplicativos baseados em linguagem AI sem reinventar a roda. Sua estrutura combinável facilita a combinação e combinação de componentes como LLMs, modelos de prompt, ferramentas externas e memória. Isso acelera a prototipagem e permite a integração perfeita de novos recursos ao longo do tempo. Esteja você procurando criar um chatbot, bot de controle de qualidade ou agente de raciocínio em várias etapas, o LangChain fornece os blocos de construção para montar rapidamente a IA avançada.

 
📰 Como usar o ChatGPT para converter texto em uma apresentação do PowerPoint

O artigo descreve um processo de duas etapas para usar o ChatGPT para converter texto em uma apresentação do PowerPoint, primeiro resumindo o texto em títulos e conteúdo de slides e, em seguida, gerando código Python para converter o resumo em formato PPTX usando a biblioteca python-pptx. Isso permite a criação rápida de apresentações atraentes a partir de longos documentos de texto, superando esforços manuais tediosos. São fornecidas instruções claras sobre como criar os prompts do ChatGPT e executar o código, oferecendo uma solução automatizada eficiente para as necessidades de apresentação.

 
📰 Desafios abertos na pesquisa LLM

O artigo fornece uma visão geral das 10 principais direções de pesquisa para melhorar modelos de linguagem grandes: reduzir a alucinação, otimizar o comprimento/construção do contexto, incorporar dados multimodais, acelerar modelos, projetar novas arquiteturas, desenvolver alternativas de GPU como chips fotônicos, construir agentes utilizáveis, melhorar o aprendizado de feedback humano, aprimorando as interfaces de bate-papo e expandindo para idiomas diferentes do inglês. Ele cita artigos relevantes nessas áreas, observando desafios como representar as preferências humanas para aprendizado por reforço e construir modelos para idiomas com poucos recursos. O autor conclui que, embora algumas questões como a multilinguagem sejam mais tratáveis, outras, como a arquitetura, exigirão mais avanços. No geral, a experiência técnica e não técnica de pesquisadores, empresas e comunidade será fundamental para orientar os LLMs de forma positiva.

 
📰 Por que você (provavelmente) não precisa ajustar um LLM

O artigo fornece uma visão geral das 10 principais direções de pesquisa para melhorar modelos de linguagem grandes: reduzir a alucinação, otimizar o comprimento/construção do contexto, incorporar dados multimodais, acelerar modelos, projetar novas arquiteturas, desenvolver alternativas de GPU como chips fotônicos, construir agentes utilizáveis, melhorar o aprendizado de feedback humano, aprimorando as interfaces de bate-papo e expandindo para idiomas diferentes do inglês. Ele cita artigos relevantes nessas áreas, observando desafios como representar as preferências humanas para aprendizado por reforço e construir modelos para idiomas com poucos recursos. O autor conclui que, embora algumas questões como a multilinguagem sejam mais tratáveis, outras, como a arquitetura, exigirão mais avanços. No geral, a experiência técnica e não técnica de pesquisadores, empresas e comunidade será fundamental para orientar os LLMs de forma positiva.

 
📰 Práticas recomendadas para usar o modelo OpenAI GPT

O artigo descreve as práticas recomendadas para obter resultados de alta qualidade ao usar os modelos GPT da OpenAI, com base na experiência da comunidade. Ele recomenda fornecer prompts detalhados com detalhes como comprimento e persona; instruções de várias etapas; exemplos para imitar; referências e citações; tempo para pensamento crítico; e execução de código para precisão. Seguir essas dicas sobre como instruir os modelos, como especificar etapas e personas, pode levar a resultados mais precisos, relevantes e personalizáveis. A orientação visa ajudar os usuários a estruturar prompts de maneira eficaz para obter o máximo dos poderosos recursos generativos do OpenAI.

 
📰 Estamos todos errados sobre IA

O autor argumenta que os recursos atuais de IA são subestimados, usando exemplos como criatividade, pesquisa e personalização para combater equívocos comuns. Ele afirma que a IA pode ser criativa pela recombinação de conceitos, não apenas gerando ideias aleatórias; não é apenas um mecanismo de busca superalimentado como o Google; e pode desenvolver relacionamentos personalizados, não apenas habilidades genéricas. Embora não tenha certeza de quais aplicativos serão mais úteis, o autor pede uma mente aberta em vez de desdém, enfatizando que a melhor maneira de determinar o potencial da IA ​​é por meio da exploração prática contínua. Ele conclui que nossa imaginação em torno da IA ​​é limitada e seus usos provavelmente excedem em muito as previsões atuais.

 
A seção “Ferramentas” lista aplicativos e scripts úteis criados pela comunidade para aqueles que desejam se ocupar com aplicativos práticos de IA. Aqui você encontrará uma variedade de tipos de ferramentas, desde grandes bases de código abrangentes até pequenos scripts de nicho. Observe que as ferramentas são compartilhadas sem endosso e sem qualquer tipo de garantia. Faça sua própria lição de casa em qualquer software antes da instalação e uso!

 
🛠️ MetaGPT: a estrutura multiagente

O MetaGPT aceita um requisito de uma linha como entrada e saída de histórias de usuários/análise competitiva/requisitos/estruturas de dados/APIs/documentos, etc. Internamente, o MetaGPT inclui gerentes de produto/arquitetos/gerentes de projeto/engenheiros. Ele fornece todo o processo de uma empresa de software junto com SOPs cuidadosamente orquestrados.

 
🛠️ Instrutor GPT LLM

O objetivo deste projeto é explorar um novo pipeline experimental para treinar um modelo específico de tarefa de alto desempenho. Tentamos abstrair toda a complexidade, para que seja o mais fácil possível ir de ideia -> modelo de desempenho totalmente treinado.

Basta inserir uma descrição de sua tarefa e o sistema irá gerar um conjunto de dados do zero, analisá-lo no formato correto e ajustar um modelo LLaMA 2 para você.

 
🛠️ DoutorGPT

DoctorGPT é um modelo de idioma grande que pode passar no exame de licenciamento médico dos EUA. Este é um projeto de código aberto com a missão de fornecer a todos seu próprio médico particular. O DoctorGPT é uma versão do modelo de linguagem grande Llama2 de 7 bilhões de parâmetros da Meta que foi ajustado em um conjunto de dados de diálogo médico e melhorado ainda mais usando aprendizado por reforço e IA constitucional. Como o modelo tem apenas 3 Gigabytes de tamanho, cabe em qualquer dispositivo local, portanto não há necessidade de pagar uma API para utilizá-lo.

 
 

Carimbo de hora:

Mais de KDnuggetsGenericName