W tym tygodniu w AI, 18 sierpnia: OpenAI w tarapatach finansowych • Stability AI ogłasza StableCode - KDnuggets

W tym tygodniu w AI, 18 sierpnia: OpenAI w tarapatach finansowych • Stability AI ogłasza StableCode – KDnuggets

Węzeł źródłowy: 2833080

### ALT ###
Obraz stworzony przez Editor z Midjourney
 

Witamy w tym tygodniu w wydaniu „Tego tygodnia w AI” na KDnuggets. Ten wyselekcjonowany cotygodniowy post ma na celu informowanie Cię na bieżąco o najbardziej fascynujących wydarzeniach w szybko rozwijającym się świecie sztucznej inteligencji. Od przełomowych nagłówków, które kształtują nasze rozumienie roli sztucznej inteligencji w społeczeństwie, po prowokujące do myślenia artykuły, wnikliwe zasoby edukacyjne i wyróżnione badania przesuwające granice naszej wiedzy, ten post zawiera kompleksowy przegląd aktualnego krajobrazu sztucznej inteligencji. Ta cotygodniowa aktualizacja ma na celu informowanie Cię na bieżąco w tej stale rozwijającej się dziedzinie. Bądź na bieżąco i miłej lektury!

 
Sekcja „Nagłówki” omawia najważniejsze wiadomości i wydarzenia z ostatniego tygodnia w dziedzinie sztucznej inteligencji. Informacje obejmują zarówno rządowe polityki dotyczące sztucznej inteligencji, jak i postęp technologiczny oraz innowacje korporacyjne w zakresie sztucznej inteligencji.

 
💡 ChatGPT w tarapatach: OpenAI może zbankrutować do 2024 r., bot AI kosztuje firmę 700,000 XNUMX USD dziennie

OpenAI boryka się z problemami finansowymi z powodu wysokich kosztów prowadzenia ChatGPT i innych usług AI. Pomimo szybkiego wzrostu na wczesnym etapie, baza użytkowników ChatGPT spadła w ostatnich miesiącach. OpenAI stara się skutecznie zarabiać na swojej technologii i generować trwałe przychody. Tymczasem nadal zużywa gotówkę w zastraszającym tempie. Wraz z rosnącą konkurencją i niedoborami procesorów graficznych dla przedsiębiorstw, które utrudniają opracowywanie modeli, OpenAI musi pilnie znaleźć ścieżki prowadzące do rentowności. Jeśli tego nie zrobi, na horyzoncie może pojawić się bankructwo pionierskiego startupu AI.

 
💡 Stability AI ogłasza StableCode, asystenta kodowania AI dla programistów

Stability AI wydało StableCode, swój pierwszy generatywny produkt AI zoptymalizowany pod kątem tworzenia oprogramowania. StableCode zawiera wiele modeli przeszkolonych na ponad 500 miliardach tokenów kodu, aby zapewnić inteligentne autouzupełnianie, reagować na instrukcje języka naturalnego i zarządzać dużymi rozpiętościami kodu. Podczas gdy konwersacyjna sztuczna inteligencja może już pisać kod, StableCode został stworzony specjalnie w celu zwiększenia produktywności programistów poprzez zrozumienie struktury kodu i zależności. Dzięki specjalistycznym szkoleniom i modelom, które mogą obsługiwać długie konteksty, StableCode ma na celu usprawnienie przepływów pracy programistów i obniżenie bariery wejścia dla początkujących programistów. Premiera reprezentuje wyprawę Stability AI na narzędzia do kodowania wspomagane sztuczną inteligencją w obliczu rosnącej konkurencji w kosmosie.

 
💡 Przedstawiamy Superalignment firmy OpenAI

OpenAI aktywnie pracuje nad wyeliminowaniem potencjalnych zagrożeń związanych z superinteligentną sztuczną inteligencją za pośrednictwem swojego nowego zespołu Superalignment, który wykorzystuje techniki takie jak uczenie wzmacniające na podstawie informacji zwrotnych od ludzi w celu dostosowania systemów AI. Kluczowymi celami jest opracowanie skalowalnych metod szkoleniowych wykorzystujących inne systemy sztucznej inteligencji, weryfikowanie solidności modeli i testowanie warunków skrajnych pełnego potoku dopasowywania, nawet w przypadku celowo niedopasowanych modeli. Ogólnie rzecz biorąc, OpenAI ma na celu pokazanie, że uczenie maszynowe może być przeprowadzane bezpiecznie poprzez pionierskie podejście do odpowiedzialnego kierowania superinteligencją.

 
💡 Ucz się podczas wyszukiwania (i przeglądania) za pomocą generatywnej sztucznej inteligencji

Google ogłasza kilka aktualizacji swoich funkcji sztucznej inteligencji do generowania wyszukiwarek (SGE), w tym definicje najechania kursorem na tematy naukowe/historyczne, kodowane kolorami podświetlanie składni dla przeglądów kodu oraz wczesny eksperyment o nazwie „SGE podczas przeglądania”, który podsumowuje kluczowe punkty i pomaga użytkownikom przeglądać strony podczas czytania długich treści w sieci. Mają one na celu lepsze zrozumienie złożonych tematów, lepsze trawienie kodowanych informacji oraz pomoc w nawigacji i nauce podczas przeglądania przez użytkowników. Aktualizacje odzwierciedlają nieustanne wysiłki Google mające na celu rozwój wyszukiwania AI w oparciu o opinie użytkowników, z naciskiem na zrozumienie i wyodrębnienie kluczowych szczegółów ze złożonej treści internetowej.

 
💡 Together.ai rozszerza Llama2 do okna kontekstowego 32k

LLaMA-2-7B-32K to model języka o długim kontekście typu open source opracowany przez firmę Together Computer, który rozszerza długość kontekstu LLaMA-2 Meta do 32 2 tokenów. Wykorzystuje optymalizacje, takie jak FlashAttention-2, aby umożliwić wydajniejsze wnioskowanie i szkolenie. Model został wstępnie wytrenowany przy użyciu mieszanki danych, w tym książek, artykułów i danych instruktażowych. Przedstawiono przykłady dostrajania długich zadań kontroli jakości i podsumowań. Użytkownicy mogą uzyskać dostęp do modelu przez Hugging Face lub skorzystać z OpenChatKit w celu spersonalizowanego dostrojenia. Podobnie jak wszystkie modele językowe, LLaMA-7-32B-XNUMXK może generować stronnicze lub nieprawidłowe treści, co wymaga ostrożności w użyciu.

 
Sekcja „Artykuły” zawiera szereg prowokujących do myślenia artykułów na temat sztucznej inteligencji. Każdy artykuł zagłębia się w konkretny temat, oferując czytelnikom wgląd w różne aspekty sztucznej inteligencji, w tym nowe techniki, rewolucyjne podejścia i przełomowe narzędzia.

 
📰 Ściągawka LangChain

Dzięki LangChain programiści mogą tworzyć wydajne aplikacje oparte na sztucznej inteligencji bez wymyślania koła na nowo. Jego komponowalna struktura ułatwia mieszanie i dopasowywanie komponentów, takich jak LLM, szablony monitów, narzędzia zewnętrzne i pamięć. Przyspiesza to tworzenie prototypów i umożliwia bezproblemową integrację nowych możliwości w miarę upływu czasu. Niezależnie od tego, czy chcesz stworzyć chatbota, bota kontroli jakości, czy agenta wieloetapowego rozumowania, LangChain zapewnia elementy składowe do szybkiego tworzenia zaawansowanej sztucznej inteligencji.

 
📰 Jak używać ChatGPT do konwersji tekstu na prezentację PowerPoint

W artykule opisano dwuetapowy proces używania ChatGPT do konwersji tekstu na prezentację PowerPoint, najpierw podsumowując tekst w tytuły slajdów i zawartość, a następnie generując kod Pythona w celu przekonwertowania podsumowania na format PPTX przy użyciu biblioteki python-pptx. Pozwala to na szybkie tworzenie atrakcyjnych prezentacji z długich dokumentów tekstowych, przezwyciężając żmudne ręczne działania. Dostarczono jasne instrukcje dotyczące tworzenia monitów ChatGPT i uruchamiania kodu, oferując wydajne, zautomatyzowane rozwiązanie dla potrzeb prezentacji.

 
📰 Otwarte wyzwania w badaniach LLM

Artykuł zawiera przegląd 10 kluczowych kierunków badawczych mających na celu ulepszenie dużych modeli językowych: redukcja halucynacji, optymalizacja długości/konstrukcji kontekstu, włączanie danych multimodalnych, przyspieszanie modeli, projektowanie nowych architektur, opracowywanie alternatywnych GPU, takich jak chipy fotoniczne, budowanie użytecznych agentów, poprawa uczenia się z opinie ludzi, ulepszenie interfejsów czatu i rozszerzenie na języki inne niż angielski. Cytuje odpowiednie artykuły z tych obszarów, zwracając uwagę na wyzwania, takie jak reprezentowanie ludzkich preferencji w zakresie uczenia się przez wzmacnianie i budowanie modeli dla języków o niskich zasobach. Autor konkluduje, że chociaż niektóre kwestie, takie jak wielojęzyczność, są łatwiejsze do rozwiązania, inne, takie jak architektura, będą wymagały więcej przełomów. Ogólnie rzecz biorąc, zarówno techniczna, jak i nietechniczna wiedza naukowców, firm i społeczności będzie miała kluczowe znaczenie dla pozytywnego kierowania LLM.

 
📰 Dlaczego (prawdopodobnie) nie musisz dostrajać LLM

Artykuł zawiera przegląd 10 kluczowych kierunków badawczych mających na celu ulepszenie dużych modeli językowych: redukcja halucynacji, optymalizacja długości/konstrukcji kontekstu, włączanie danych multimodalnych, przyspieszanie modeli, projektowanie nowych architektur, opracowywanie alternatywnych GPU, takich jak chipy fotoniczne, budowanie użytecznych agentów, poprawa uczenia się z opinie ludzi, ulepszenie interfejsów czatu i rozszerzenie na języki inne niż angielski. Cytuje odpowiednie artykuły z tych obszarów, zwracając uwagę na wyzwania, takie jak reprezentowanie ludzkich preferencji w zakresie uczenia się przez wzmacnianie i budowanie modeli dla języków o niskich zasobach. Autor konkluduje, że chociaż niektóre kwestie, takie jak wielojęzyczność, są łatwiejsze do rozwiązania, inne, takie jak architektura, będą wymagały więcej przełomów. Ogólnie rzecz biorąc, zarówno techniczna, jak i nietechniczna wiedza naukowców, firm i społeczności będzie miała kluczowe znaczenie dla pozytywnego kierowania LLM.

 
📰 Najlepsze praktyki korzystania z modelu OpenAI GPT

Artykuł przedstawia najlepsze praktyki uzyskiwania wysokiej jakości danych wyjściowych podczas korzystania z modeli GPT OpenAI, opierając się na doświadczeniach społeczności. Zaleca dostarczanie szczegółowych monitów ze szczegółami, takimi jak długość i persona; instrukcje wieloetapowe; przykłady do naśladowania; odniesienia i cytaty; czas na krytyczne myślenie; i wykonywanie kodu dla precyzji. Postępowanie zgodnie z tymi wskazówkami dotyczącymi instruowania modeli, takich jak określanie kroków i postaci, może prowadzić do dokładniejszych, trafniejszych i dostosowywalnych wyników. Wytyczne mają na celu pomóc użytkownikom w skutecznym ustrukturyzowaniu monitów, aby jak najlepiej wykorzystać potężne możliwości generowania OpenAI.

 
📰 Wszyscy się mylimy co do sztucznej inteligencji

Autor twierdzi, że obecne możliwości sztucznej inteligencji są niedoceniane, używając przykładów takich jak kreatywność, wyszukiwanie i personalizacja, aby przeciwdziałać powszechnym nieporozumieniom. Twierdzi, że sztuczna inteligencja może być kreatywna poprzez ponowne łączenie koncepcji, a nie tylko generowanie przypadkowych pomysłów; to nie tylko doładowana wyszukiwarka, taka jak Google; i może rozwijać spersonalizowane relacje, a nie tylko ogólne umiejętności. Chociaż nie jest pewien, które aplikacje okażą się najbardziej przydatne, autor zaleca raczej otwarty umysł niż lekceważenie, podkreślając, że najlepszym sposobem na określenie potencjału sztucznej inteligencji jest ciągła eksploracja praktyczna. Dochodzi do wniosku, że nasza wyobraźnia wokół sztucznej inteligencji jest ograniczona, a jej zastosowania prawdopodobnie znacznie przekraczają obecne przewidywania.

 
Sekcja „Narzędzia” zawiera listę przydatnych aplikacji i skryptów stworzonych przez społeczność dla tych, którzy chcą zająć się praktycznymi aplikacjami AI. Tutaj znajdziesz szereg typów narzędzi, od dużych kompleksowych baz kodu po małe niszowe skrypty. Pamiętaj, że narzędzia są udostępniane bez poparcia i bez jakiejkolwiek gwarancji. Odrób swoją pracę domową na dowolnym oprogramowaniu przed instalacją i użyciem!

 
🛠️. MetaGPT: platforma wieloagentowa

MetaGPT przyjmuje jednowierszowe wymaganie jako dane wejściowe i wyjściowe historie użytkowników / analizy konkurencji / wymagania / struktury danych / interfejsy API / dokumenty itp. Wewnętrznie MetaGPT obejmuje menedżerów produktu / architektów / kierowników projektów / inżynierów. Zapewnia cały proces firmy programistycznej wraz ze starannie zaaranżowanymi SPO.

 
🛠️. Trener GPT LLM

Celem tego projektu jest zbadanie eksperymentalnego nowego potoku do trenowania wysokowydajnego modelu specyficznego dla zadania. Staramy się wyabstrahować całą złożoność, więc przejście od pomysłu do w pełni wyszkolonego modelu jest tak proste, jak to tylko możliwe.

Po prostu wprowadź opis swojego zadania, a system wygeneruje zestaw danych od podstaw, przetworzy go do odpowiedniego formatu i dostosuje dla Ciebie model LLaMA 2.

 
🛠️. DoktorGPT

DoctorGPT to duży model językowy, który może zdać amerykański egzamin medyczny. Jest to projekt typu open source, którego misją jest zapewnienie każdemu prywatnego lekarza. DoctorGPT to wersja modelu Llama2 firmy Meta o parametrach 7 miliardów, która została dopracowana w zbiorze danych dialogu medycznego, a następnie udoskonalona za pomocą uczenia się ze wzmocnieniem i konstytucjonalnej sztucznej inteligencji. Ponieważ model ma tylko 3 gigabajty, pasuje do dowolnego urządzenia lokalnego, więc nie trzeba płacić za API, aby z niego korzystać.

 
 

Znak czasu:

Więcej z Knuggety