Kolejne narzędzie OpenAI do przetwarzania tekstu na obraz, DALL·E 3, zostanie wprowadzone na rynek w październiku

Kolejne narzędzie OpenAI do przetwarzania tekstu na obraz, DALL·E 3, zostanie wprowadzone na rynek w październiku

Węzeł źródłowy: 2899099

AI w skrócie W październiku OpenAI udostępni najnowszą wersję narzędzia do przetwarzania tekstu na obraz DALL·E.

W przeciwieństwie do poprzednich generacji, DALL·E 3 został zintegrowany z narzędziem OpenAI do generowania tekstu ChatGPT, aby pomóc w tworzeniu bardziej szczegółowych opisów wejściowych lub podpowiedzi.

Jakość obrazów generowanych przez oprogramowanie zależy od poziomu szczegółowości komunikatów. Istnieje wiele trików i słów kluczowych, dzięki którym sztuczna inteligencja utworzy dokładnie taki obraz, o jakim myślisz. Jest to umiejętność określana jako szybka inżynieria. Łącząc ChatGPT z DALL·E 3, użytkownicy mogą łatwiej udoskonalać swoje opisy obrazów.

„Po wyświetleniu monitu o pomysł ChatGPT automatycznie wygeneruje dostosowane, szczegółowe podpowiedzi dla DALL·E 3, które wcielą Twój pomysł w życie. Jeśli podoba Ci się konkretny obraz, ale nie jest on do końca poprawny, możesz poprosić ChatGPT o wprowadzenie poprawek za pomocą kilku słów” – OpenAI wyjaśnione.

Klienci ChatGPT Plus i Enterprise będą mieli dostęp do DALL·E 3 w przyszłym miesiącu. OpenAI twierdzi, że ulepszyło swoje filtry treści, aby uniemożliwić użytkownikom tworzenie fałszywych zdjęć osób publicznych, i dołoży wszelkich starań, aby nie tworzyć cyfrowych dzieł sztuki bezpośrednio kopiujących styl żyjącego artysty.

Czat Copilot Chat firmy Microsoft GitHub jest przeznaczony dla samotnych programistów

GitHub wydał oprogramowanie do generowania kodów AI Copilot Chat dla indywidualnych programistów w ramach zintegrowanych środowisk programistycznych firmy Microsoft, Visual Studio i VS Code.

Czat Copilot był wcześniej dostępny wyłącznie w publicznych testach beta dla użytkowników korporacyjnych. Nowe oprogramowanie rozszerza możliwości generowania kodu Copilot. W poprzedniej wersji Copilot był raczej narzędziem programisty w parach, które umożliwiało programistom automatyczne uzupełnianie pisanego przez siebie wiersza kodu poprzez wybór jego rekomendacji.

Jednak dzięki Copilot Chat programiści mogą opisać konkretny blok kodu, niezależnie od tego, czy dotyczy to pętli, czy funkcji, a następnie spróbuje on napisać go od zera. Następnie mogą go skopiować i wkleić do programu Visual Studio lub VS Code, a następnie w razie potrzeby ulepszyć i dostosować. Copilot Chat może również czytać kod, aby wyjaśnić, jak to działa, jakie może zawierać błędy i jak je naprawić.

GitHub wierzy, że pomoże programistom na wszystkich poziomach umiejętności zwiększyć produktywność.

„Zintegrowane razem GitHub Copilot Chat i para programistów GitHub Copilot tworzą potężnego asystenta AI, który może pomóc każdemu programiście budować z szybkością jego umysłu w wybranym przez niego języku naturalnym. Wierzymy, że ta spójność stworzy nowy centralny element doświadczenia w tworzeniu oprogramowania, zasadniczo ograniczając pracę szablonową i wyznaczając język naturalny jako nowy uniwersalny język programowania dla każdego programisty na świecie” – to powiedziany.

Amazon wprowadza ulepszoną usługę Alexa opartą na modelu dużego języka

Amazon aktualizuje swojego aktywowanego głosem asystenta AI Alexę o niestandardowy model z dużym językiem.

LLM są na ogół dość otwarte i trudno jest przewidzieć i kontrolować ich reakcje. Jednak informatycy opracowali nowe metody kształtowania ich ogólnego zachowania, aby zapobiec wypadnięciu z torów. Teraz Amazon znalazł sposób na integrację LLM z Alexą.

Stwierdzono, że nowy system został „zbudowany na zamówienie i specjalnie zoptymalizowany pod kątem interakcji głosowych” i nadal wykonuje te same czynności, co wcześniej, takie jak kontrolowanie inteligentnych urządzeń domowych, odpowiadanie na pytania lub dostarczanie najnowszych wiadomości i aktualizacji. Ale teraz Alexa z obsługą LLM będzie bardziej rozmowna i elastyczna w swoich reakcjach.

„Nie chcesz mieć w domu rutynowego, robota-towarzysza” – powiedział w poście na blogu Daniel Rausch, wiceprezes ds. Alexy i Fire TV. „Jak zawsze mówiliśmy, najnudniejsza kolacja to taka, na której nikt nie ma zdania – a dzięki temu nowemu LLM Alexa będzie miała swój punkt widzenia, dzięki czemu rozmowy będą bardziej wciągające.

„Alexa może powiedzieć Ci, które filmy powinny zdobyć Oscara, świętować z Tobą, gdy poprawnie odpowiesz na pytanie w quizie, lub napisać entuzjastyczną notatkę, którą możesz wysłać, aby pogratulować znajomemu niedawnego ukończenia studiów”.

LLM nie jest jednak doskonały i Alexa może nadal generować niedokładne odpowiedzi, które mogą nie być przydatne, ale najnowszy system ma mniej robotyczny głos niż wcześniej. Możesz posłuchać, jak brzmi stara i nowa Alexa tutaj. ®

Znak czasu:

Więcej z Rejestr