OpenAIs nächstes Text-zu-Bild-Tool DALL·E 3 erscheint im Oktober

OpenAIs nächstes Text-zu-Bild-Tool DALL·E 3 erscheint im Oktober

Quellknoten: 2899099

KI in Kürze OpenAI wird im Oktober die neueste Version seines Text-zu-Bild-Tools DALL·E veröffentlichen.

Im Gegensatz zu früheren Generationen wurde DALL·E 3 in das Nur-Text-Generierungstool ChatGPT von OpenAI integriert, um detailliertere Eingabebeschreibungen oder Eingabeaufforderungen zu erstellen.

Die Qualität der von der Software erzeugten Bilder hängt vom Detaillierungsgrad der Eingabeaufforderungen ab. Es gibt alle möglichen Tricks und Schlüsselwörter, um die KI dazu zu bringen, genau die Art von Bild zu erstellen, an die Sie denken, eine Fähigkeit, die als „Prompt Engineering“ bezeichnet wird. Durch die Verbindung von ChatGPT mit DALL·E 3 können Benutzer ihre Beschreibungen der Bilder einfacher verfeinern.

„Wenn Sie mit einer Idee aufgefordert werden, generiert ChatGPT automatisch maßgeschneiderte, detaillierte Eingabeaufforderungen für DALL·E 3, die Ihre Idee zum Leben erwecken. „Wenn Ihnen ein bestimmtes Bild gefällt, es aber nicht ganz passt, können Sie ChatGPT bitten, mit nur wenigen Worten Anpassungen vorzunehmen“, so OpenAI erklärt.

ChatGPT Plus- und Enterprise-Kunden werden nächsten Monat Zugriff auf DALL·E 3 haben. OpenAI sagte, es habe seine Inhaltsfilter verbessert, um zu verhindern, dass Benutzer gefälschte Bilder von Persönlichkeiten des öffentlichen Lebens erstellen, und werde versuchen, keine digitalen Kunstwerke zu produzieren, die den Stil eines lebenden Künstlers direkt kopieren.

Der GitHub Copilot Chat von Microsoft ist für Einzelentwickler gedacht

GitHub hat seine AI Copilot Chat-Codegenerator-Software für einzelne Entwickler in den integrierten Entwicklungsumgebungen Visual Studio und VS Code von Microsoft veröffentlicht.

Copilot Chat war bisher nur für öffentliche Betatests für seine Unternehmensbenutzer verfügbar. Die neue Software erweitert die Codegenerierungsfähigkeiten von Copilot. In der Vorgängerversion war Copilot eher ein Paar-Programmiertool, das es Entwicklern ermöglichte, die Codezeile, die sie schrieben, durch Auswahl der Empfehlungen automatisch zu vervollständigen.

Mit Copilot Chat können Programmierer jedoch einen bestimmten Codeblock beschreiben, sei es für eine Schleife oder eine Funktion, und es wird versucht, ihn von Grund auf neu zu schreiben. Sie können es dann kopieren und in Visual Studio oder VS Code einfügen und bei Bedarf optimieren und anpassen. Copilot Chat kann auch Code lesen, um zu erklären, wie er funktioniert, welche Fehler er haben könnte und wie man sie behebt.

GitHub glaubt, dass es Entwicklern aller Fähigkeitsstufen dabei helfen wird, produktiver zu sein.

„Zusammen integriert bilden GitHub Copilot Chat und der GitHub Copilot-Paarprogrammierer einen leistungsstarken KI-Assistenten, der jedem Entwickler dabei helfen kann, in der natürlichen Sprache seiner Wahl mit der Geschwindigkeit seines Geistes zu bauen.“ „Wir glauben, dass dieser Zusammenhalt das neue Herzstück der Softwareentwicklungserfahrung bilden wird, indem er die Standardarbeit grundlegend reduziert und natürliche Sprache als neue universelle Programmiersprache für jeden Entwickler auf dem Planeten auszeichnet“, heißt es sagte.

Amazon führt verbessertes Alexa basierend auf einem großen Sprachmodell ein

Amazon aktualisiert seinen sprachaktivierten KI-Assistenten Alexa mit einem maßgeschneiderten großen Sprachmodell.

LLMs haben im Allgemeinen ein recht offenes Ende und es ist schwierig, ihre Reaktionen vorherzusagen und zu kontrollieren. Aber Informatiker haben neue Methoden gefunden, um ihr Gesamtverhalten so zu beeinflussen, dass sie nicht aus der Bahn geraten. Jetzt hat Amazon einen Weg gefunden, LLMs mit Alexa zu integrieren.

Das neue System sei „maßgeschneidert und speziell für Sprachinteraktionen optimiert“ worden und führe immer noch die gleichen Aktionen aus wie zuvor, etwa die Steuerung von Smart-Home-Geräten, die Beantwortung von Fragen oder die Bereitstellung der neuesten Nachrichten und Updates. Aber jetzt wird die LLM-fähige Alexa in ihren Antworten gesprächiger und flexibler sein.

„Sie möchten keinen routinemäßigen, roboterhaften Begleiter in Ihrem Zuhause haben“, sagte Daniel Rausch, Vizepräsident von Alexa und Fire TV, in einem Blogbeitrag. „Wie wir immer gesagt haben, ist die langweiligste Dinnerparty eine, bei der niemand eine Meinung hat – und mit diesem neuen LLM wird Alexa einen Standpunkt vertreten, was Gespräche spannender macht.“

„Alexa kann Ihnen sagen, welche Filme einen Oscar hätten gewinnen sollen, kann mit Ihnen feiern, wenn Sie eine Quizfrage richtig beantworten, oder eine enthusiastische Nachricht schreiben, die Sie einem Freund zu seinem kürzlichen Abschluss gratulieren können.“

Das LLM ist jedoch nicht perfekt und Alexa generiert möglicherweise immer noch ungenaue Antworten, die möglicherweise nicht nützlich sind, aber das neueste System verfügt über eine weniger roboterhafte Stimme als zuvor. Sie können sich anhören, wie die alte und neue Alexa klingt hier🇧🇷 🇧🇷

Zeitstempel:

Mehr von Das Register