Cette semaine dans AI, 18 août : OpenAI en difficulté financière • Stability AI annonce StableCode - KDnuggets

Cette semaine dans AI, 18 août : OpenAI en difficulté financière • Stability AI annonce StableCode – KDnuggets

Nœud source: 2833080

### ALT ###
Image créée par Editor avec Midjourney
 

Bienvenue dans l'édition de cette semaine de "This Week in AI" sur KDnuggets. Cet article hebdomadaire organisé vise à vous tenir au courant des développements les plus convaincants dans le monde en évolution rapide de l'intelligence artificielle. Des titres révolutionnaires qui façonnent notre compréhension du rôle de l'IA dans la société aux articles stimulants, en passant par des ressources d'apprentissage perspicaces et des recherches pointues repoussant les limites de nos connaissances, cet article fournit un aperçu complet du paysage actuel de l'IA. Cette mise à jour hebdomadaire est conçue pour vous tenir à jour et informé dans ce domaine en constante évolution. Restez connectés et bonne lecture !

 
La section « À la une » traite des principales nouvelles et des développements de la semaine dernière dans le domaine de l'intelligence artificielle. Les informations vont des politiques gouvernementales en matière d'IA aux avancées technologiques et aux innovations des entreprises en matière d'IA.

 
???? ChatGPT en difficulté : OpenAI pourrait faire faillite d'ici 2024, le bot AI coûte à l'entreprise 700,000 XNUMX $ par jour

OpenAI est confronté à des problèmes financiers en raison des coûts élevés de fonctionnement de ChatGPT et d'autres services d'IA. Malgré une croissance initiale rapide, la base d'utilisateurs de ChatGPT a diminué ces derniers mois. OpenAI a du mal à monétiser efficacement sa technologie et à générer des revenus durables. Pendant ce temps, il continue de brûler des liquidités à un rythme alarmant. Avec l'intensification de la concurrence et les pénuries de GPU d'entreprise qui entravent le développement de modèles, OpenAI doit trouver de toute urgence des voies vers la rentabilité. S'il ne le fait pas, la faillite pourrait être à l'horizon pour la startup pionnière de l'IA.

 
???? Stability AI annonce StableCode, un assistant de codage IA pour les développeurs

Stability AI a lancé StableCode, son premier produit d'IA générative optimisé pour le développement de logiciels. StableCode intègre plusieurs modèles formés sur plus de 500 milliards de jetons de code pour fournir une saisie semi-automatique intelligente, répondre aux instructions en langage naturel et gérer de longues étendues de code. Alors que l'IA conversationnelle peut déjà écrire du code, StableCode est spécialement conçu pour augmenter la productivité des programmeurs en comprenant la structure et les dépendances du code. Avec sa formation spécialisée et ses modèles capables de gérer de longs contextes, StableCode vise à améliorer les flux de travail des développeurs et à réduire la barrière à l'entrée pour les codeurs en herbe. Le lancement représente l'incursion de Stability AI dans les outils de codage assistés par l'IA au milieu d'une concurrence croissante dans l'espace.

 
???? Présentation du superalignement par OpenAI

OpenAI travaille de manière proactive pour faire face aux risques potentiels de l'IA superintelligente par le biais de sa nouvelle équipe de superalignement, qui utilise des techniques telles que l'apprentissage par renforcement à partir de la rétroaction humaine pour aligner les systèmes d'IA. Les principaux objectifs sont de développer des méthodes de formation évolutives tirant parti d'autres systèmes d'IA, de valider la robustesse du modèle et de tester le pipeline d'alignement complet, même avec des modèles intentionnellement mal alignés. Dans l'ensemble, OpenAI vise à montrer que l'apprentissage automatique peut être mené en toute sécurité grâce à des approches pionnières pour diriger de manière responsable la superintelligence.

 
???? Apprenez pendant que vous recherchez (et naviguez) à l'aide de l'IA générative

Google annonce plusieurs mises à jour de ses capacités d'IA de génération de moteur de recherche (SGE), y compris des définitions de survol pour les sujets scientifiques/historiques, la coloration syntaxique codée par couleur pour les aperçus de code et une première expérience appelée "SGE pendant la navigation" qui résume les points clés et aide les utilisateurs explorer des pages lors de la lecture de contenu long sur le Web. Ceux-ci visent à améliorer la compréhension de sujets complexes, à améliorer la digestion des informations de codage et à faciliter la navigation et l'apprentissage lorsque les utilisateurs naviguent. Les mises à jour représentent les efforts continus de Google pour faire évoluer son expérience de recherche d'IA en fonction des commentaires des utilisateurs, en mettant l'accent sur la compréhension et l'extraction des détails clés du contenu Web complexe.

 
???? Together.ai étend Llama2 à une fenêtre contextuelle de 32k

LLaMA-2-7B-32K est un modèle de langage de contexte long open source développé par Together Computer qui étend la longueur de contexte des jetons LLaMA-2 de Meta à 32K. Il exploite des optimisations telles que FlashAttention-2 pour permettre une inférence et une formation plus efficaces. Le modèle a été pré-formé à l'aide d'un mélange de données comprenant des livres, des articles et des données pédagogiques. Des exemples sont fournis pour affiner les tâches d'AQ et de synthèse du formulaire long. Les utilisateurs peuvent accéder au modèle via Hugging Face ou utiliser OpenChatKit pour un réglage personnalisé. Comme tous les modèles de langage, LLaMA-2-7B-32K peut générer un contenu biaisé ou incorrect, nécessitant une utilisation prudente.

 
La section "Articles" présente un éventail d'articles stimulants sur l'intelligence artificielle. Chaque article plonge dans un sujet spécifique, offrant aux lecteurs un aperçu de divers aspects de l'IA, y compris de nouvelles techniques, des approches révolutionnaires et des outils révolutionnaires.

 
📰 Aide-mémoire LangChain

Avec LangChain, les développeurs peuvent créer des applications basées sur le langage de l'IA sans réinventer la roue. Sa structure composable facilite le mélange et l'association de composants tels que les LLM, les modèles d'invite, les outils externes et la mémoire. Cela accélère le prototypage et permet une intégration transparente de nouvelles fonctionnalités au fil du temps. Que vous cherchiez à créer un chatbot, un bot QA ou un agent de raisonnement en plusieurs étapes, LangChain fournit les éléments de base pour assembler rapidement une IA avancée.

 
📰 Comment utiliser ChatGPT pour convertir du texte en une présentation PowerPoint

L'article décrit un processus en deux étapes pour utiliser ChatGPT pour convertir du texte en une présentation PowerPoint, en résumant d'abord le texte dans les titres et le contenu des diapositives, puis en générant du code Python pour convertir le résumé au format PPTX à l'aide de la bibliothèque python-pptx. Cela permet de créer rapidement des présentations attrayantes à partir de longs documents texte, en surmontant les efforts manuels fastidieux. Des instructions claires sont fournies sur la création des invites ChatGPT et l'exécution du code, offrant une solution automatisée efficace pour les besoins de présentation.

 
📰 Défis ouverts dans la recherche LLM

L'article donne un aperçu de 10 directions de recherche clés pour améliorer les grands modèles de langage : réduire les hallucinations, optimiser la longueur/construction du contexte, incorporer des données multimodales, accélérer les modèles, concevoir de nouvelles architectures, développer des alternatives GPU comme les puces photoniques, construire des agents utilisables, améliorer l'apprentissage à partir de la rétroaction humaine, l'amélioration des interfaces de chat et l'extension aux langues autres que l'anglais. Il cite des articles pertinents dans ces domaines, notant des défis tels que la représentation des préférences humaines pour l'apprentissage par renforcement et la construction de modèles pour les langues à faibles ressources. L'auteur conclut que si certains problèmes comme le multilinguisme sont plus faciles à résoudre, d'autres comme l'architecture nécessiteront plus de percées. Dans l'ensemble, l'expertise technique et non technique des chercheurs, des entreprises et de la communauté sera essentielle pour orienter positivement les LLM.

 
📰 Pourquoi vous n'avez (probablement) pas besoin d'affiner un LLM

L'article donne un aperçu de 10 directions de recherche clés pour améliorer les grands modèles de langage : réduire les hallucinations, optimiser la longueur/construction du contexte, incorporer des données multimodales, accélérer les modèles, concevoir de nouvelles architectures, développer des alternatives GPU comme les puces photoniques, construire des agents utilisables, améliorer l'apprentissage à partir de la rétroaction humaine, l'amélioration des interfaces de chat et l'extension aux langues autres que l'anglais. Il cite des articles pertinents dans ces domaines, notant des défis tels que la représentation des préférences humaines pour l'apprentissage par renforcement et la construction de modèles pour les langues à faibles ressources. L'auteur conclut que si certains problèmes comme le multilinguisme sont plus faciles à résoudre, d'autres comme l'architecture nécessiteront plus de percées. Dans l'ensemble, l'expertise technique et non technique des chercheurs, des entreprises et de la communauté sera essentielle pour orienter positivement les LLM.

 
📰 Meilleures pratiques pour utiliser le modèle OpenAI GPT

L'article décrit les meilleures pratiques pour obtenir des résultats de haute qualité lors de l'utilisation des modèles GPT d'OpenAI, en s'appuyant sur l'expérience de la communauté. Il recommande de fournir des invites détaillées avec des détails tels que la longueur et la personnalité ; instructions en plusieurs étapes ; exemples à imiter; références et citations; temps pour la pensée critique; et l'exécution du code pour plus de précision. Suivre ces conseils sur l'instruction des modèles, tels que la spécification des étapes et des personnages, peut conduire à des résultats plus précis, pertinents et personnalisables. Les conseils visent à aider les utilisateurs à structurer efficacement les invites pour tirer le meilleur parti des puissantes capacités génératives d'OpenAI.

 
📰 Nous nous trompons sur l'IA

L'auteur soutient que les capacités actuelles de l'IA sont sous-estimées, en utilisant des exemples tels que la créativité, la recherche et la personnalisation pour contrer les idées fausses courantes. Il déclare que l'IA peut être créative en recombinant des concepts, pas simplement en générant des idées aléatoires ; ce n'est pas seulement un moteur de recherche suralimenté comme Google ; et il peut développer des relations personnalisées, pas seulement des compétences génériques. Bien qu'il ne sache pas quelles applications s'avéreront les plus utiles, l'auteur incite à l'ouverture d'esprit plutôt qu'au dédain, soulignant que la meilleure façon de déterminer le potentiel de l'IA est de poursuivre l'exploration pratique. Il conclut que notre imagination autour de l'IA est limitée et que ses utilisations dépassent probablement de loin les prévisions actuelles.

 
La section "Outils" répertorie les applications et les scripts utiles créés par la communauté pour ceux qui souhaitent s'occuper d'applications pratiques d'IA. Vous trouverez ici une gamme de types d'outils, des grandes bases de code complètes aux petits scripts de niche. Notez que les outils sont partagés sans approbation et sans aucune garantie d'aucune sorte. Faites vos propres devoirs sur n'importe quel logiciel avant l'installation et l'utilisation !

 
MetaGPT : le framework multi-agents

MetaGPT prend une exigence d'une ligne comme entrée et sortie user stories / analyse concurrentielle / exigences / structures de données / API / documents, etc. En interne, MetaGPT inclut des chefs de produit / architectes / chefs de projet / ingénieurs. Il fournit l'ensemble du processus d'une société de logiciels ainsi que des SOP soigneusement orchestrées.

 
Formateur GPT LLM

L'objectif de ce projet est d'explorer un nouveau pipeline expérimental pour former un modèle spécifique à une tâche très performant. Nous essayons d'abstraire toute la complexité, il est donc aussi simple que possible de passer de l'idée -> modèle performant entièrement entraîné.

Entrez simplement une description de votre tâche et le système générera un ensemble de données à partir de zéro, l'analysera dans le bon format et affinera un modèle LLaMA 2 pour vous.

 
DocteurGPT

DoctorGPT est un modèle de grande langue qui peut réussir l'examen américain de licence médicale. Il s'agit d'un projet open source dont la mission est de fournir à chacun son propre médecin privé. DoctorGPT est une version du modèle de grand langage Llama2 à 7 milliards de paramètres de Meta qui a été affiné sur un ensemble de données de dialogue médical, puis encore amélioré à l'aide de l'apprentissage par renforcement et de l'IA constitutionnelle. Étant donné que le modèle ne fait que 3 gigaoctets, il s'adapte à n'importe quel appareil local, il n'est donc pas nécessaire de payer une API pour l'utiliser.

 
 

Horodatage:

Plus de KDnuggetsGenericName