Săptămâna aceasta în AI, 18 august: OpenAI în probleme financiare • Stability AI anunță StableCode - KDnuggets

Săptămâna aceasta în AI, 18 august: OpenAI în probleme financiare • Stability AI anunță StableCode – KDnuggets

Nodul sursă: 2833080

### ALT ###
Imagine creată de Editor cu Midjourney
 

Bun venit la ediția de săptămâna aceasta a „This Week in AI” pe KDnuggets. Această postare săptămânală organizată își propune să vă țină la curent cu cele mai convingătoare evoluții din lumea care progresează rapid a inteligenței artificiale. De la titluri revoluționare care ne modelează înțelegerea rolului AI în societate până la articole care provoacă gândirea, resurse de învățare perspicace și cercetări subliniate care depășesc limitele cunoștințelor noastre, această postare oferă o privire de ansamblu cuprinzătoare asupra peisajului actual al AI. Această actualizare săptămânală este concepută pentru a vă ține la curent și informat în acest domeniu în continuă evoluție. Rămâneți pe fază și lectură plăcută!

 
Secțiunea „Titluri” discută cele mai importante știri și evoluții din ultima săptămână în domeniul inteligenței artificiale. Informațiile variază de la politici guvernamentale de IA la progrese tehnologice și inovații corporative în AI.

 
???? ChatGPT în probleme: OpenAI ar putea da faliment până în 2024, botul AI costă compania 700,000 USD în fiecare zi

OpenAI se confruntă cu probleme financiare din cauza costurilor ridicate ale rulării ChatGPT și a altor servicii AI. În ciuda creșterii rapide și timpurii, baza de utilizatori ChatGPT a scăzut în ultimele luni. OpenAI se luptă să-și monetizeze eficient tehnologia și să genereze venituri durabile. Între timp, continuă să consume numerar într-un ritm alarmant. Odată cu încălzirea concurenței și deficitul de GPU al întreprinderii care împiedică dezvoltarea modelului, OpenAI trebuie să găsească urgent căi către profitabilitate. Dacă nu reușește să facă acest lucru, falimentul poate fi la orizont pentru startup-ul de pionierat AI.

 
???? Stability AI anunță StableCode, un asistent de codare AI pentru dezvoltatori

Stability AI a lansat StableCode, primul său produs AI generativ optimizat pentru dezvoltarea de software. StableCode încorporează mai multe modele antrenate pe peste 500 de miliarde de simboluri de cod pentru a oferi completare automată inteligentă, a răspunde la instrucțiunile în limbaj natural și a gestiona intervale lungi de cod. În timp ce AI conversațional poate deja să scrie cod, StableCode este conceput special pentru a crește productivitatea programatorului prin înțelegerea structurii codului și a dependențelor. Cu pregătirea sa specializată și modelele care pot gestiona contexte lungi, StableCode își propune să îmbunătățească fluxurile de lucru pentru dezvoltatori și să reducă bariera de intrare pentru programatori aspiranți. Lansarea reprezintă incursiunea Stability AI în instrumentele de codificare asistate de AI, pe fondul concurenței în creștere în spațiu.

 
???? Vă prezentăm Superalignment de către OpenAI

OpenAI lucrează în mod proactiv pentru a aborda riscurile potențiale ale AI superinteligente prin noua lor echipă Superalignment, care utilizează tehnici precum învățarea prin consolidare din feedbackul uman pentru a alinia sistemele AI. Obiectivele cheie sunt dezvoltarea unor metode de antrenament scalabile care să folosească alte sisteme AI, validarea robusteței modelului și testarea la stres a întregii conducte de aliniere chiar și cu modele nealiniate intenționat. În general, OpenAI își propune să arate că învățarea automată poate fi efectuată în siguranță prin abordări de pionierat pentru a conduce în mod responsabil superinteligența.

 
???? Învățați pe măsură ce căutați (și răsfoiți) folosind IA generativă

Google anunță mai multe actualizări ale capabilităților AI de Generare a motoarelor de căutare (SGE), inclusiv definiții de trecere cu mouse-ul pentru subiecte de știință/istorie, evidențiere a sintaxei cu coduri de culori pentru prezentarea generală a codului și un experiment timpuriu numit „SGE în timpul navigării”, care rezumă punctele cheie și ajută utilizatorii explorați paginile când citiți conținut de lungă durată pe web. Acestea urmăresc să îmbunătățească înțelegerea subiectelor complexe, să îmbunătățească digestia informațiilor de codificare și să ajute navigarea și învățarea pe măsură ce utilizatorii navighează. Actualizările reprezintă eforturile continue ale Google de a-și dezvolta experiența de căutare AI pe baza feedback-ului utilizatorilor, cu accent pe înțelegerea și extragerea detaliilor cheie din conținut web complex.

 
???? Together.ai extinde Llama2 la o fereastră de context de 32k

LLaMA-2-7B-32K este un model de limbaj de context lung, open-source, dezvoltat de Together Computer, care extinde lungimea contextului LLaMA-2 de la Meta la 32K de jetoane. Utilizează optimizări precum FlashAttention-2 pentru a permite inferențe și instruire mai eficiente. Modelul a fost antrenat în prealabil folosind un amestec de date, inclusiv cărți, lucrări și date de instruire. Sunt oferite exemple pentru reglarea fină a sarcinilor de QA și de rezumat în formă lungă. Utilizatorii pot accesa modelul prin Hugging Face sau pot folosi OpenChatKit pentru o reglare fină personalizată. Ca toate modelele de limbaj, LLaMA-2-7B-32K poate genera conținut părtinitor sau incorect, necesitând prudență în utilizare.

 
Secțiunea „Articole” prezintă o serie de piese care provoacă gândirea despre inteligența artificială. Fiecare articol aprofundează un subiect specific, oferind cititorilor informații despre diverse aspecte ale AI, inclusiv tehnici noi, abordări revoluționare și instrumente inovatoare.

 
📰 Cheat Sheet LangChain

Cu LangChain, dezvoltatorii pot construi aplicații capabile bazate pe limbaj AI fără a reinventa roata. Structura sa componabilă face ușoară amestecarea și potrivirea componentelor precum LLM-uri, șabloane de prompt, instrumente externe și memorie. Acest lucru accelerează crearea de prototipuri și permite integrarea perfectă a noilor capabilități în timp. Indiferent dacă doriți să creați un chatbot, un bot QA sau un agent de raționament în mai mulți pași, LangChain oferă elementele de bază pentru a asambla rapid AI avansată.

 
📰 Cum să utilizați ChatGPT pentru a converti textul într-o prezentare PowerPoint

Articolul prezintă un proces în doi pași pentru utilizarea ChatGPT pentru a converti textul într-o prezentare PowerPoint, mai întâi rezumând textul în titluri și conținut de diapozitive, apoi generând cod Python pentru a converti rezumatul în format PPTX folosind biblioteca python-pptx. Acest lucru permite crearea rapidă de prezentări captivante din documente text lungi, depășind eforturile manuale obositoare. Sunt furnizate instrucțiuni clare despre crearea prompturilor ChatGPT și rularea codului, oferind o soluție automată eficientă pentru nevoile de prezentare.

 
📰 Provocări deschise în cercetarea LLM

Articolul oferă o privire de ansamblu asupra a 10 direcții cheie de cercetare pentru a îmbunătăți modelele de limbaj mari: reducerea halucinațiilor, optimizarea lungimii/construcției contextului, încorporarea datelor multimodale, accelerarea modelelor, proiectarea de noi arhitecturi, dezvoltarea de alternative GPU precum cipuri fotonice, construirea de agenți utilizabili, îmbunătățirea învățării de la feedback uman, îmbunătățirea interfețelor de chat și extinderea la limbi non-engleze. Citează lucrări relevante din aceste domenii, observând provocări precum reprezentarea preferințelor umane pentru învățare prin consolidare și construirea de modele pentru limbi cu resurse reduse. Autorul concluzionează că, în timp ce unele probleme precum multilingvitatea sunt mai ușor de tratat, altele, precum arhitectura, vor necesita mai multe descoperiri. În general, atât expertiza tehnică, cât și cea non-tehnică a cercetătorilor, companiilor și comunității vor fi esențiale pentru a conduce pozitiv LLM-urile.

 
📰 De ce (probabil) nu trebuie să perfecționați un LLM

Articolul oferă o privire de ansamblu asupra a 10 direcții cheie de cercetare pentru a îmbunătăți modelele de limbaj mari: reducerea halucinațiilor, optimizarea lungimii/construcției contextului, încorporarea datelor multimodale, accelerarea modelelor, proiectarea de noi arhitecturi, dezvoltarea de alternative GPU precum cipuri fotonice, construirea de agenți utilizabili, îmbunătățirea învățării de la feedback uman, îmbunătățirea interfețelor de chat și extinderea la limbi non-engleze. Citează lucrări relevante din aceste domenii, observând provocări precum reprezentarea preferințelor umane pentru învățare prin consolidare și construirea de modele pentru limbi cu resurse reduse. Autorul concluzionează că, în timp ce unele probleme precum multilingvitatea sunt mai ușor de tratat, altele, precum arhitectura, vor necesita mai multe descoperiri. În general, atât expertiza tehnică, cât și cea non-tehnică a cercetătorilor, companiilor și comunității vor fi esențiale pentru a conduce pozitiv LLM-urile.

 
📰 Cele mai bune practici pentru utilizarea modelului OpenAI GPT

Articolul prezintă cele mai bune practici pentru obținerea de rezultate de înaltă calitate atunci când se utilizează modelele GPT OpenAI, bazându-se pe experiența comunității. Acesta recomandă furnizarea de solicitări detaliate cu detalii precum lungimea și personajul; instrucțiuni în mai mulți pași; exemple de imitat; referințe și citări; timp pentru gândirea critică; și execuția codului pentru precizie. Urmând aceste sfaturi despre instruirea modelelor, cum ar fi specificarea pașilor și a persoanelor, poate duce la rezultate mai precise, relevante și personalizabile. Ghidul își propune să ajute utilizatorii să structureze în mod eficient solicitările pentru a profita la maximum de capabilitățile generative puternice ale OpenAI.

 
📰 Cu toții greșim în privința AI

Autorul susține că capacitățile actuale de AI sunt subestimate, folosind exemple precum creativitatea, căutarea și personalizarea pentru a contracara concepțiile greșite comune. El afirmă că AI poate fi creativă recombinând concepte, nu doar generând idei aleatorii; nu este doar un motor de căutare supraalimentat precum Google; și poate dezvolta relații personalizate, nu doar abilități generice. Deși nu este sigur care aplicații se vor dovedi cele mai utile, autorul îndeamnă la o minte deschisă mai degrabă decât la dispreț, subliniind că cea mai bună modalitate de a determina potențialul AI este explorarea practică continuă. El a ajuns la concluzia că imaginația noastră în jurul AI este limitată și că utilizările sale probabil depășesc cu mult predicțiile actuale.

 
Secțiunea „Instrumente” listează aplicații și scripturi utile create de comunitate pentru cei care doresc să se ocupe cu aplicații practice AI. Aici veți găsi o gamă largă de tipuri de instrumente, de la baze mari de cod cuprinzătoare până la scripturi de nișă mici. Rețineți că instrumentele sunt partajate fără aprobare și fără nicio garanție de niciun fel. Faceți-vă temele pentru orice software înainte de instalare și utilizare!

 
🛠️ MetaGPT: Cadrul Multi-Agent

MetaGPT preia o cerință de o linie ca intrare și ieșire povești de utilizator / analiză competitivă / cerințe / structuri de date / API-uri / documente etc. Intern, MetaGPT include manageri de produs / arhitecți / manageri de proiect / ingineri. Acesta oferă întregul proces al unei companii de software împreună cu SOP-uri atent orchestrate.

 
🛠️ Trainer GPT LLM

Scopul acestui proiect este de a explora o nouă conductă experimentală pentru a antrena un model de înaltă performanță specific unei sarcini. Încercăm să abstragem toată complexitatea, astfel încât este cât se poate de ușor să trecem de la idee -> model performant complet antrenat.

Pur și simplu introduceți o descriere a sarcinii dvs., iar sistemul va genera un set de date de la zero, îl va analiza în formatul potrivit și va ajusta un model LLaMA 2 pentru dvs.

 
🛠️ DoctorGPT

DoctorGPT este un model de limbă mare care poate promova examenul de licență medicală din SUA. Acesta este un proiect open-source cu misiunea de a oferi fiecăruia propriul medic privat. DoctorGPT este o versiune a modelului de limbă mare Llama2 cu 7 miliarde de parametri de la Meta, care a fost reglată fin pe un set de date de dialog medical, apoi îmbunătățită în continuare folosind Reinforcement Learning & Constitutional AI. Deoarece modelul are o dimensiune de numai 3 gigaocteți, se potrivește pe orice dispozitiv local, deci nu este nevoie să plătiți un API pentru a-l folosi.

 
 

Timestamp-ul:

Mai mult de la KDnuggets