Denna vecka i AI, 18 augusti: OpenAI i finansiella problem • Stability AI tillkännager StableCode - KDnuggets

Denna vecka i AI, 18 augusti: OpenAI i finansiella problem • Stability AI tillkännager StableCode – KDnuggets

Källnod: 2833080

### ALT ###
Bild skapad av Editor med Midjourney
 

Välkommen till veckans upplaga av "This Week in AI" på KDnuggets. Detta kurerade veckovisa inlägg syftar till att hålla dig à jour med den mest övertygande utvecklingen i den snabbt framskridande världen av artificiell intelligens. Från banbrytande rubriker som formar vår förståelse av AI:s roll i samhället till tankeväckande artiklar, insiktsfulla lärresurser och framhävd forskning som tänjer på gränserna för vår kunskap, det här inlägget ger en omfattande översikt över AI:s nuvarande landskap. Den här veckouppdateringen är utformad för att hålla dig uppdaterad och informerad inom detta ständigt föränderliga område. Håll utkik och trevlig läsning!

 
Avsnittet "Rubriker" diskuterar de bästa nyheterna och utvecklingen från den senaste veckan inom området artificiell intelligens. Informationen sträcker sig från statlig AI-policy till tekniska framsteg och företagsinnovationer inom AI.

 
???? ChatGPT i trubbel: OpenAI kan gå i konkurs 2024, AI-bot kostar företaget 700,000 XNUMX dollar varje dag

OpenAI står inför ekonomiska problem på grund av de höga kostnaderna för att driva ChatGPT och andra AI-tjänster. Trots snabb tidig tillväxt har ChatGPT:s användarbas minskat de senaste månaderna. OpenAI kämpar för att effektivt tjäna pengar på sin teknik och generera hållbara intäkter. Samtidigt fortsätter det att brinna igenom kontanter i en alarmerande takt. Med hård konkurrens och brist på GPU för företag som hindrar modellutveckling, måste OpenAI omedelbart hitta vägar till lönsamhet. Om det misslyckas med att göra det kan en konkurs vara i horisonten för den banbrytande AI-starten.

 
???? Stability AI tillkännager StableCode, en AI-kodningsassistent för utvecklare

Stability AI har släppt StableCode, sin första generativa AI-produkt optimerad för mjukvaruutveckling. StableCode innehåller flera modeller som tränats på över 500 miljarder tokens kod för att tillhandahålla intelligent autokomplettering, svara på instruktioner på naturligt språk och hantera långa kodintervall. Medan konversations-AI redan kan skriva kod, är StableCode specialbyggd för att öka programmerarens produktivitet genom att förstå kodstruktur och beroenden. Med sin specialiserade utbildning och modeller som kan hantera långa sammanhang, syftar StableCode till att förbättra utvecklarnas arbetsflöden och sänka inträdesbarriären för blivande kodare. Lanseringen representerar Stability AI:s intåg i AI-assisterade kodningsverktyg mitt i den växande konkurrensen i rymden.

 
???? Vi introducerar Superalignment av OpenAI

OpenAI arbetar proaktivt för att hantera potentiella risker från superintelligent AI genom deras nya Superalignment-team, som använder tekniker som förstärkningsinlärning från mänsklig feedback för att anpassa AI-system. Huvudmålen är att utveckla skalbara träningsmetoder som utnyttjar andra AI-system, validera modellens robusthet och stresstesta hela anpassningspipelinen även med avsiktligt feljusterade modeller. Sammantaget syftar OpenAI till att visa att maskininlärning kan utföras på ett säkert sätt genom banbrytande metoder för att ansvarsfullt styra superintelligens.

 
???? Lär dig när du söker (och bläddrar) med generativ AI

Google tillkännager flera uppdateringar av sina Search Engine Generation (SGE) AI-funktioner, inklusive hovringsdefinitioner för vetenskap/historia, färgkodad syntaxmarkering för kodöversikter och ett tidigt experiment kallat "SGE while surfing" som sammanfattar nyckelpunkter och hjälper användare utforska sidor när du läser långformat innehåll på webben. Dessa syftar till att öka förståelsen för komplexa ämnen, förbättra sammanfattningen av kodningsinformation och underlätta navigering och inlärning när användare surfar. Uppdateringarna representerar Googles fortsatta ansträngningar att utveckla sin AI-sökupplevelse baserat på feedback från användare, med fokus på förståelse och att extrahera nyckeldetaljer från komplext webbinnehåll.

 
???? Together.ai utökar Llama2 till ett 32k kontextfönster

LLaMA-2-7B-32K är en öppen källkod, lång kontextspråkmodell utvecklad av Together Computer som utökar kontextlängden för Metas LLaMA-2 till 32K tokens. Det utnyttjar optimeringar som FlashAttention-2 för att möjliggöra mer effektiv slutledning och träning. Modellen var förtränad med hjälp av en blandning av data inklusive böcker, papper och instruktionsdata. Exempel ges för finjustering av långa QA- och sammanfattningsuppgifter. Användare kan komma åt modellen via Hugging Face eller använda OpenChatKit för anpassad finjustering. Liksom alla språkmodeller kan LLaMA-2-7B-32K generera partiskt eller felaktigt innehåll, vilket kräver försiktighet vid användning.

 
Avsnittet "Artiklar" presenterar en rad tankeväckande artiklar om artificiell intelligens. Varje artikel dyker djupt in i ett specifikt ämne och ger läsarna insikter i olika aspekter av AI, inklusive nya tekniker, revolutionerande tillvägagångssätt och banbrytande verktyg.

 
📰 LangChain Cheat Sheet

Med LangChain kan utvecklare bygga kapabla AI-språkbaserade appar utan att uppfinna hjulet på nytt. Dess komponerbara struktur gör det enkelt att blanda och matcha komponenter som LLM:er, promptmallar, externa verktyg och minne. Detta påskyndar prototypframställning och möjliggör sömlös integration av nya funktioner över tid. Oavsett om du vill skapa en chatbot, QA-bot eller resonemangsagent i flera steg, tillhandahåller LangChain byggstenarna för att snabbt sätta ihop avancerad AI.

 
📰 Hur man använder ChatGPT för att konvertera text till en PowerPoint-presentation

Artikeln beskriver en process i två steg för att använda ChatGPT för att konvertera text till en PowerPoint-presentation, först sammanfatta texten till bildrubriker och innehåll, sedan generera Python-kod för att konvertera sammanfattningen till PPTX-format med python-pptx-biblioteket. Detta möjliggör ett snabbt skapande av engagerande presentationer från långa textdokument, vilket övervinner tråkiga manuella ansträngningar. Tydliga instruktioner ges om att skapa ChatGPT-prompterna och köra koden, vilket erbjuder en effektiv automatiserad lösning för presentationsbehov.

 
📰 Öppna utmaningar inom LLM-forskning

Artikeln ger en översikt över 10 viktiga forskningsinriktningar för att förbättra stora språkmodeller: minska hallucinationer, optimera kontextlängd/konstruktion, införliva multimodal data, accelerera modeller, designa nya arkitekturer, utveckla GPU-alternativ som fotoniska chips, bygga användbara agenter, förbättra lärande från mänsklig feedback, förbättra chattgränssnitt och expandera till icke-engelska språk. Den citerar relevanta artiklar inom dessa områden och noterar utmaningar som att representera mänskliga preferenser för förstärkningsinlärning och bygga modeller för resurssnåla språk. Författaren drar slutsatsen att även om vissa frågor som flerspråkighet är lättare att hantera, kommer andra som arkitektur att kräva fler genombrott. Sammantaget kommer både teknisk och icke-teknisk expertis mellan forskare, företag och samhället att vara avgörande för att styra LLMs positivt.

 
📰 Varför du (förmodligen) inte behöver finjustera en LLM

Artikeln ger en översikt över 10 viktiga forskningsinriktningar för att förbättra stora språkmodeller: minska hallucinationer, optimera kontextlängd/konstruktion, införliva multimodal data, accelerera modeller, designa nya arkitekturer, utveckla GPU-alternativ som fotoniska chips, bygga användbara agenter, förbättra lärande från mänsklig feedback, förbättra chattgränssnitt och expandera till icke-engelska språk. Den citerar relevanta artiklar inom dessa områden och noterar utmaningar som att representera mänskliga preferenser för förstärkningsinlärning och bygga modeller för resurssnåla språk. Författaren drar slutsatsen att även om vissa frågor som flerspråkighet är lättare att hantera, kommer andra som arkitektur att kräva fler genombrott. Sammantaget kommer både teknisk och icke-teknisk expertis mellan forskare, företag och samhället att vara avgörande för att styra LLMs positivt.

 
📰 Bästa metoder för att använda OpenAI GPT-modellen

Artikeln beskriver bästa praxis för att erhålla högkvalitativa utdata när du använder OpenAI:s GPT-modeller, med utgångspunkt i gemenskapserfarenhet. Det rekommenderar att du tillhandahåller detaljerade uppmaningar med detaljer som längd och person; flerstegsinstruktioner; exempel att efterlikna; referenser och citat; tid för kritiskt tänkande; och kodexekvering för precision. Att följa dessa tips för att instruera modellerna, som att specificera steg och personas, kan leda till mer exakta, relevanta och anpassningsbara resultat. Vägledningen syftar till att hjälpa användare att strukturera uppmaningar effektivt för att få ut det mesta av OpenAI:s kraftfulla generativa kapacitet.

 
📰 Vi har alla fel om AI

Författaren hävdar att nuvarande AI-kapacitet underskattas, med hjälp av exempel som kreativitet, sökning och personalisering för att motverka vanliga missuppfattningar. Han säger att AI kan vara kreativ genom att kombinera koncept, inte bara generera slumpmässiga idéer; det är inte bara en överladdad sökmotor som Google; och det kan utveckla personliga relationer, inte bara generiska färdigheter. Även om han är osäker på vilka applikationer som kommer att visa sig vara mest användbara, uppmanar författaren till ett öppet sinne snarare än avvisande, och betonar att det bästa sättet att avgöra AI:s potential är genom fortsatt praktisk utforskning. Han drar slutsatsen att vår fantasi kring AI är begränsad och att dess användningsområden sannolikt vida överstiger nuvarande förutsägelser.

 
Avsnittet "Verktyg" listar användbara appar och skript som skapats av communityn för dem som vill ha fullt upp med praktiska AI-applikationer. Här hittar du en rad olika verktygstyper, från stora heltäckande kodbaser till små nischskript. Observera att verktyg delas utan rekommendationer och utan någon som helst garanti. Gör din egen läxa på vilken programvara som helst innan installation och användning!

 
🛠️ MetaGPT: Multi-Agent Framework

MetaGPT tar ett krav på en rad som input och matar ut användarberättelser / konkurrensanalys / krav / datastrukturer / API:er / dokument, etc. Internt inkluderar MetaGPT produktchefer / arkitekter / projektledare / ingenjörer. Den tillhandahåller hela processen för ett mjukvaruföretag tillsammans med noggrant orkestrerade SOP:er.

 
🛠️ GPT LLM-tränare

Målet med detta projekt är att utforska en experimentell ny pipeline för att träna en högpresterande uppgiftsspecifik modell. Vi försöker abstrahera bort all komplexitet, så det är så enkelt som möjligt att gå från idé -> presterande färdigtränad modell.

Skriv bara in en beskrivning av din uppgift, så kommer systemet att generera en datauppsättning från början, analysera den till rätt format och finjustera en LLaMA 2-modell för dig.

 
🛠️ DoktorGPT

DoctorGPT är en stor språkmodell som kan klara US Medical Licensing Exam. Detta är ett projekt med öppen källkod med uppdraget att ge alla sin egen privata läkare. DoctorGPT är en version av Metas Llama2 7 miljarder parameter Large Language Model som finjusterades på en Medical Dialogue Dataset och sedan förbättrades ytterligare med Reinforcement Learning & Constitutional AI. Eftersom modellen bara är 3 Gigabyte stor passar den på vilken lokal enhet som helst, så det finns ingen anledning att betala ett API för att använda den.

 
 

Tidsstämpel:

Mer från KDnuggets