Denne uge i AI, 18. august: OpenAI i finansielle problemer • Stability AI annoncerer StableCode - KDnuggets

Denne uge i AI, 18. august: OpenAI i finansielle problemer • Stability AI annoncerer StableCode – KDnuggets

Kildeknude: 2833080

### ALT ###
Billede lavet af Editor med Midjourney
 

Velkommen til denne uges udgave af "This Week in AI" på KDnuggets. Dette kuraterede ugentlige indlæg har til formål at holde dig ajour med den mest overbevisende udvikling i den hastigt fremadskridende verden af ​​kunstig intelligens. Fra banebrydende overskrifter, der former vores forståelse af AI's rolle i samfundet til tankevækkende artikler, indsigtsfulde læringsressourcer og fokus på forskning, der flytter grænserne for vores viden, giver dette indlæg et omfattende overblik over AI's nuværende landskab. Denne ugentlige opdatering er designet til at holde dig opdateret og informeret på dette område i konstant udvikling. Følg med og god læsning!

 
Sektionen "Overskrifter" diskuterer de bedste nyheder og udviklinger fra den seneste uge inden for kunstig intelligens. Oplysningerne spænder fra statslige AI-politikker til teknologiske fremskridt og virksomhedsinnovationer inden for AI.

 
💡 ChatGPT i problemer: OpenAI kan gå konkurs i 2024, AI-bot koster virksomheden $700,000 hver dag

OpenAI står over for økonomiske problemer på grund af de høje omkostninger ved at drive ChatGPT og andre AI-tjenester. På trods af hurtig tidlig vækst er ChatGPTs brugerbase faldet i de seneste måneder. OpenAI kæmper for effektivt at tjene penge på sin teknologi og generere bæredygtig indtjening. I mellemtiden fortsætter det med at brænde igennem kontanter i en alarmerende hastighed. Med stigende konkurrence og mangel på GPU i virksomheder, der hindrer modeludvikling, er OpenAI nødt til omgående at finde veje til rentabilitet. Hvis det undlader at gøre det, kan konkurs være i horisonten for den banebrydende AI-startup.

 
💡 Stabilitet AI annoncerer StableCode, en AI-kodningsassistent for udviklere

Stability AI har frigivet StableCode, dets første generative AI-produkt optimeret til softwareudvikling. StableCode inkorporerer flere modeller trænet på over 500 milliarder tokens kode for at give intelligent autofuldførelse, reagere på naturlige sproginstruktioner og administrere lange kodeområder. Mens konversations-AI allerede kan skrive kode, er StableCode specialbygget til at øge programmørens produktivitet ved at forstå kodestruktur og afhængigheder. Med sin specialiserede træning og modeller, der kan håndtere lange sammenhænge, ​​sigter StableCode mod at forbedre udviklerarbejdsgange og sænke adgangsbarrieren for håbefulde kodere. Lanceringen repræsenterer Stability AI's indtog i AI-assisterede kodningsværktøjer midt i voksende konkurrence i rummet.

 
💡 Introduktion af Superalignment af OpenAI

OpenAI arbejder proaktivt på at adressere potentielle risici fra superintelligent AI gennem deres nye Superalignment-team, som bruger teknikker som forstærkningslæring fra menneskelig feedback for at tilpasse AI-systemer. Nøglemål er udvikling af skalerbare træningsmetoder, der udnytter andre AI-systemer, validering af modellens robusthed og stresstestning af den fulde tilpasningspipeline, selv med bevidst forkert justerede modeller. Overordnet sigter OpenAI mod at vise, at maskinlæring kan udføres sikkert ved banebrydende tilgange til ansvarligt at styre superintelligens.

 
💡 Lær, mens du søger (og browser) ved hjælp af generativ AI

Google annoncerer flere opdateringer til sine Search Engine Generation (SGE) AI-funktioner, herunder hover-definitioner for videnskabs-/historieemner, farvekodet syntaksfremhævning for kodeoversigter og et tidligt eksperiment kaldet "SGE while browsing", der opsummerer nøglepunkter og hjælper brugere udforske sider, når du læser langt indhold på nettet. Disse har til formål at øge forståelsen af ​​komplekse emner, forbedre fordøjelsen af ​​kodningsinformation og hjælpe med at navigere og lære, mens brugerne browser. Opdateringerne repræsenterer Googles fortsatte bestræbelser på at udvikle sin AI-søgeoplevelse baseret på brugerfeedback med fokus på forståelse og udtrækning af nøgledetaljer fra komplekst webindhold.

 
💡 Together.ai udvider Llama2 til et 32k kontekstvindue

LLaMA-2-7B-32K er en open source, lang kontekstsprogmodel udviklet af Together Computer, der udvider kontekstlængden af ​​Metas LLaMA-2 til 32K tokens. Det udnytter optimeringer som FlashAttention-2 for at muliggøre mere effektiv slutning og træning. Modellen blev fortrænet ved hjælp af en blanding af data, herunder bøger, papirer og instruktionsdata. Eksempler er givet til finjustering af langformede QA- og opsummeringsopgaver. Brugere kan få adgang til modellen via Hugging Face eller bruge OpenChatKit til tilpasset finjustering. Som alle sprogmodeller kan LLaMA-2-7B-32K generere skævt eller forkert indhold, hvilket kræver forsigtighed ved brug.

 
Afsnittet "Artikler" præsenterer en række tankevækkende stykker om kunstig intelligens. Hver artikel dykker dybt ned i et specifikt emne og giver læserne indsigt i forskellige aspekter af kunstig intelligens, herunder nye teknikker, revolutionerende tilgange og banebrydende værktøjer.

 
📰 LangChain snydeark

Med LangChain kan udviklere bygge egnede AI-sprogbaserede apps uden at genopfinde hjulet. Dens komponerbare struktur gør det nemt at blande og matche komponenter som LLM'er, promptskabeloner, eksterne værktøjer og hukommelse. Dette fremskynder prototyping og muliggør problemfri integration af nye muligheder over tid. Uanset om du søger at oprette en chatbot, QA-bot eller flertrins-ræsonneringsagent, giver LangChain byggestenene til hurtigt at samle avanceret AI.

 
📰 Sådan bruges ChatGPT til at konvertere tekst til en PowerPoint-præsentation

Artiklen skitserer en to-trins proces til at bruge ChatGPT til at konvertere tekst til en PowerPoint-præsentation, først opsummerer teksten til diastitler og indhold, og derefter genererer Python-kode for at konvertere resuméet til PPTX-format ved hjælp af python-pptx-biblioteket. Dette giver mulighed for hurtig oprettelse af engagerende præsentationer fra lange tekstdokumenter, hvilket overvinder kedelige manuelle anstrengelser. Der gives tydelige instruktioner om at lave ChatGPT-prompter og køre koden, hvilket tilbyder en effektiv automatiseret løsning til præsentationsbehov.

 
📰 Åbne udfordringer i LLM-forskning

Artiklen giver et overblik over 10 centrale forskningsretninger til at forbedre store sprogmodeller: reduktion af hallucinationer, optimering af kontekstlængde/konstruktion, inkorporering af multimodale data, acceleration af modeller, design af nye arkitekturer, udvikling af GPU-alternativer som fotoniske chips, bygning af brugbare agenter, forbedring af læring fra menneskelig feedback, forbedring af chatgrænseflader og udvidelse til ikke-engelske sprog. Den citerer relevante artikler på tværs af disse områder og bemærker udfordringer som at repræsentere menneskelige præferencer for forstærkende læring og opbygning af modeller for lavressourcesprog. Forfatteren konkluderer, at mens nogle spørgsmål som flersprogethed er mere håndterbare, vil andre som arkitektur kræve flere gennembrud. Samlet set vil både teknisk og ikke-teknisk ekspertise på tværs af forskere, virksomheder og samfundet være afgørende for at styre LLM'er positivt.

 
📰 Hvorfor du (sandsynligvis) ikke behøver at finjustere en LLM

Artiklen giver et overblik over 10 centrale forskningsretninger til at forbedre store sprogmodeller: reduktion af hallucinationer, optimering af kontekstlængde/konstruktion, inkorporering af multimodale data, acceleration af modeller, design af nye arkitekturer, udvikling af GPU-alternativer som fotoniske chips, bygning af brugbare agenter, forbedring af læring fra menneskelig feedback, forbedring af chatgrænseflader og udvidelse til ikke-engelske sprog. Den citerer relevante artikler på tværs af disse områder og bemærker udfordringer som at repræsentere menneskelige præferencer for forstærkende læring og opbygning af modeller for lavressourcesprog. Forfatteren konkluderer, at mens nogle spørgsmål som flersprogethed er mere håndterbare, vil andre som arkitektur kræve flere gennembrud. Samlet set vil både teknisk og ikke-teknisk ekspertise på tværs af forskere, virksomheder og samfundet være afgørende for at styre LLM'er positivt.

 
📰 Bedste fremgangsmåder til brug af OpenAI GPT-model

Artiklen skitserer bedste praksis for at opnå output af høj kvalitet, når du bruger OpenAI's GPT-modeller, og trækker på erfaringer fra fællesskabet. Det anbefaler at give detaljerede meddelelser med detaljer som længde og persona; flertrinsinstruktioner; eksempler at efterligne; referencer og citater; tid til kritisk tænkning; og kodeudførelse for præcision. At følge disse tips til at instruere modellerne, såsom angivelse af trin og personas, kan føre til mere nøjagtige, relevante og tilpasselige resultater. Vejledningen har til formål at hjælpe brugere med at strukturere prompter effektivt for at få mest muligt ud af OpenAIs kraftfulde generative muligheder.

 
📰 Vi tager alle fejl om AI

Forfatteren hævder, at de nuværende AI-kapaciteter er undervurderet, ved at bruge eksempler som kreativitet, søgning og personalisering for at imødegå almindelige misforståelser. Han udtaler, at AI kan være kreativ ved at rekombinere koncepter, ikke blot generere tilfældige ideer; det er ikke bare en superladet søgemaskine som Google; og det kan udvikle personlige relationer, ikke kun generiske færdigheder. Selvom han er usikker på, hvilke applikationer der vil vise sig at være mest nyttige, opfordrer forfatteren til et åbent sind snarere end afvisende, og understreger, at den bedste måde at bestemme AI's potentiale på er ved fortsat praktisk udforskning. Han konkluderer, at vores fantasi omkring AI er begrænset, og at dens anvendelser sandsynligvis langt overstiger de nuværende forudsigelser.

 
Sektionen "Værktøjer" viser nyttige apps og scripts, der er oprettet af fællesskabet til dem, der ønsker at få travlt med praktiske AI-applikationer. Her finder du en række værktøjstyper, fra store omfattende kodebaser til små nichescripts. Bemærk, at værktøjer deles uden godkendelse og uden nogen form for garanti. Lav dit eget hjemmearbejde på enhver software før installation og brug!

 
🛠️ MetaGPT: Multi-Agent Framework

MetaGPT tager et one line-krav som input og outputter brugerhistorier / konkurrenceanalyser / krav / datastrukturer / API'er / dokumenter osv. Internt inkluderer MetaGPT produktledere / arkitekter / projektledere / ingeniører. Det giver hele processen i et softwarefirma sammen med omhyggeligt orkestrerede SOP'er.

 
🛠️ GPT LLM træner

Målet med dette projekt er at udforske en eksperimentel ny pipeline for at træne en højtydende opgavespecifik model. Vi forsøger at abstrahere al kompleksiteten, så det er så nemt som muligt at gå fra idé -> performant færdigtrænet model.

Du skal blot indtaste en beskrivelse af din opgave, og systemet vil generere et datasæt fra bunden, parse det til det rigtige format og finjustere en LLaMA 2-model for dig.

 
🛠️ LægeGPT

DoctorGPT er en stor sprogmodel, der kan bestå den amerikanske medicinske licenseksamen. Dette er et open source-projekt med en mission om at give alle deres egen private læge. DoctorGPT er en version af Metas Llama2 7 milliarder parameter Large Language Model, der blev finjusteret på et Medical Dialogue Dataset og derefter yderligere forbedret ved hjælp af Reinforcement Learning & Constitutional AI. Da modellen kun er 3 Gigabyte i størrelse, passer den på enhver lokal enhed, så der er ingen grund til at betale en API for at bruge den.

 
 

Tidsstempel:

Mere fra KDnuggets