Il prossimo strumento di conversione testo-immagine di OpenAI, DALL·E 3, verrà lanciato a ottobre

Il prossimo strumento di conversione testo-immagine di OpenAI, DALL·E 3, verrà lanciato a ottobre

Nodo di origine: 2899099

IA in breve OpenAI rilascerà l'ultima versione del suo strumento di conversione testo in immagine DALL·E in ottobre.

A differenza delle generazioni precedenti, DALL·E 3 è stato integrato con lo strumento di generazione di solo testo ChatGPT di OpenAI per aiutare a creare descrizioni o suggerimenti di input più dettagliati.

La qualità delle immagini prodotte dal software dipende dal livello di dettaglio dei suggerimenti. Esistono tutti i tipi di trucchi e parole chiave per consentire all'intelligenza artificiale di creare esattamente il tipo di immagine a cui stai pensando, un'abilità descritta come ingegneria tempestiva. Collegando ChatGPT a DALL·E 3 gli utenti potranno affinare più facilmente la descrizione delle immagini.

“Quando ti viene proposta un'idea, ChatGPT genererà automaticamente suggerimenti dettagliati e personalizzati per DALL·E 3 che danno vita alla tua idea. Se ti piace un'immagine particolare, ma non è del tutto corretta, puoi chiedere a ChatGPT di apportare modifiche con poche parole", OpenAI ha spiegato.

I clienti ChatGPT Plus ed Enterprise avranno accesso a DALL·E 3 il mese prossimo. OpenAI ha affermato di aver migliorato i propri filtri dei contenuti per impedire agli utenti di generare immagini false di personaggi pubblici e di cercare di non produrre opere d'arte digitali che copino direttamente lo stile di un artista vivente.

La GitHub Copilot Chat di Microsoft è qui per gli sviluppatori solitari

GitHub ha rilasciato il suo software di generazione di codice AI Copilot Chat per singoli sviluppatori all'interno degli ambienti di sviluppo integrati di Microsoft, Visual Studio e VS Code.

In precedenza Copilot Chat era disponibile solo per il beta testing pubblico per gli utenti aziendali. Il nuovo software espande le capacità di generazione del codice di Copilot. Nella versione precedente, Copilot era più uno strumento di programmazione in coppia che consentiva agli sviluppatori di completare automaticamente la riga di codice che stavano scrivendo selezionando i suoi consigli.

Con Copilot Chat, tuttavia, i programmatori possono descrivere uno specifico blocco di codice, che si tratti di un loop o di una funzione, e proveranno a scriverlo da zero. Possono quindi copiarlo e incollarlo in Visual Studio o VS Code e modificarlo e adattarlo secondo necessità. Copilot Chat può anche leggere il codice per spiegare come funziona, quali bug potrebbe avere e come risolverli.

GitHub ritiene che aiuterà gli sviluppatori di tutti i livelli a essere più produttivi.

“Integrati insieme, GitHub Copilot Chat e la coppia di programmatori GitHub Copilot formano un potente assistente AI in grado di aiutare ogni sviluppatore a costruire alla velocità della propria mente nel linguaggio naturale di sua scelta. Riteniamo che questa coesione costituirà il nuovo fulcro dell’esperienza di sviluppo software, riducendo sostanzialmente il lavoro standard e designando il linguaggio naturale come un nuovo linguaggio di programmazione universale per ogni sviluppatore del pianeta”, ha affermato. disse.

Amazon lancia Alexa migliorata sulla base di un modello linguistico di grandi dimensioni

Amazon sta aggiornando il suo assistente AI ad attivazione vocale Alexa con un modello linguistico di grandi dimensioni personalizzato.

I LLM sono generalmente piuttosto aperti ed è difficile prevedere e controllare le loro risposte. Ma gli scienziati informatici hanno escogitato nuovi metodi per modellare il loro comportamento generale ed evitare che escano dai binari. Ora Amazon ha trovato un modo per integrare gli LLM con Alexa.

Ha affermato che il suo nuovo sistema è stato “costruito su misura e ottimizzato specificamente per le interazioni vocali” e svolge ancora le stesse azioni di prima, come controllare i dispositivi domestici intelligenti, rispondere a domande o fornire le ultime notizie e aggiornamenti. Ma ora Alexa abilitato per LLM sarà più colloquiale e flessibile nelle sue risposte.

"Non vuoi un compagno robotico meccanico nella tua casa", ha detto Daniel Rausch, vicepresidente di Alexa e Fire TV, in un post sul blog. “Come abbiamo sempre detto, la cena più noiosa è quella in cui nessuno ha un’opinione e, con questo nuovo LLM, Alexa avrà un punto di vista, rendendo le conversazioni più coinvolgenti.

"Alexa può dirti quali film avrebbero dovuto vincere un Oscar, festeggiare con te quando rispondi correttamente a una domanda del quiz o scrivere una nota entusiasta da inviare per congratularsi con un amico per la sua recente laurea."

Il LLM non è perfetto, tuttavia, e Alexa potrebbe comunque generare risposte imprecise che potrebbero non essere utili, ma l'ultimo sistema ha una voce meno robotica di prima. Puoi ascoltare come suona il vecchio e il nuovo Alexa qui. ®

Timestamp:

Di più da Il registro