Sviluppatori di scimmie annoiate abbandonano il sistema di addestramento militare USA-Regno Unito

Sviluppatori di scimmie annoiate abbandonano il sistema di addestramento militare USA-Regno Unito

Nodo di origine: 1772253

Hai mai pubblicato foto di te stesso su piattaforme di social media come Facebook, Instagram, Tik Tok e altri? Se è così, forse è il momento di riconsiderare quei messaggi.

Questo perché una nuova tecnologia di generazione di immagini AI ora consente agli utenti di salvare un mucchio di foto e fotogrammi video di te e quindi addestrarlo a creare falsi "realistici" della tua foto che ti ritraggono in posizioni decisamente imbarazzanti, posizioni illegali e talvolta compromettenti.

Beh, non tutti sono a rischio, ma la minaccia è reale.

Anche se le fotografie sono sempre state inclini a manipolazione e la falsificazione dall'era delle camere oscure in cui i film venivano manipolati con le forbici e incollati fino al photoshopping di pixel oggi.

Anche se a quei tempi era un compito arduo e richiedeva una certa abilità specialistica, oggigiorno creare falsi fotorealistici convincenti è stato reso troppo facile.

Innanzitutto un modello AI deve imparare come eseguire il rendering o sintetizzare un'immagine di qualcuno in una foto da un modello 2D o 3D tramite software. Una volta che l'immagine è stata renderizzata con successo, l'immagine diventa naturalmente un giocattolo per la tecnologia e ha la capacità di generare infinite quantità di immagini.

Quando si sceglie di condividere il modello AI, anche altre persone possono unirsi e iniziare a creare immagini di quella persona.

Tecnologia di intelligenza artificiale che crea immagini finte profonde che distruggono la vita

Reale o generato dall'intelligenza artificiale?

Casi di studio sui social media

Un volontario descritto come “coraggioso” da Ars Technica, una pubblicazione tecnologica, che inizialmente aveva consentito all'azienda di utilizzare le sue immagini per creare falsi, ha cambiato idea.

Questo perché in pochissimo tempo i risultati delle immagini renderizzate dal modello AI sono stati troppo convincenti e troppo dannosi in termini di reputazione per il volontario.

Dato l'elevato rischio reputazionale, una persona fittizia generata dall'intelligenza artificiale, John, è diventata una scelta naturale.

John, il ragazzo fittizio, era un insegnante di scuola elementare, che come molte altre persone ha pubblicato le sue immagini su Facebook al lavoro, rilassato a casa e in qualche evento del genere.

Le immagini in gran parte inoffensive di "John" sono state renderizzate e poi utilizzate per addestrare l'IA a metterlo in posizioni più compromettenti.

Da sole sette immagini, l'intelligenza artificiale potrebbe essere addestrata a generare immagini che fanno sembrare che John viva una vita doppia e segreta. Ad esempio, è apparso come qualcuno a cui piaceva posare nudo per i selfie nella sua classe.

Di notte andava nei bar con l'aspetto di un pagliaccio.

Nei fine settimana faceva parte di un gruppo paramilitare estremista.

L'intelligenza artificiale ha anche creato l'impressione che fosse stato in prigione per un'accusa di droga illegale, ma avesse nascosto questo fatto al suo datore di lavoro.

In un'altra foto, John, che è sposato, è visto in posa accanto a una donna nuda che non è sua moglie in un ufficio.

Utilizzando un generatore di immagini AI chiamato Diffusione stabile (versione 1.5) e una tecnica chiamata Dreambooth, Ars Technica è stata in grado di addestrare l'IA a generare foto di John in qualsiasi stile. Sebbene John fosse una creazione fittizia, chiunque teoricamente potrebbe ottenere lo stesso insieme di risultati da cinque o più immagini. Queste immagini potrebbero essere prese dagli account dei social media o prese come fotogrammi fissi da un video.

Il processo per insegnare all'intelligenza artificiale come creare immagini di John è durato circa un'ora ed è stato gratuito grazie a un servizio di cloud computing di Google.

Al termine della formazione, la creazione delle immagini ha richiesto diverse ore, afferma la pubblicazione. E questo non perché la generazione delle immagini fosse un processo un po' lento, ma perché era necessario setacciare un numero di "immagini imperfette" e utilizzare una sorta di suggerimento "per tentativi" per trovare le immagini migliori.

Lo studio ha scoperto che era molto più semplice rispetto al tentativo di creare da zero un falso realistico fotografico di "John" in Photoshop.

Grazie alla tecnologia, è possibile far sembrare persone come John come se avessero agito illegalmente o commesso atti immorali come irruzione in casa, uso di droghe illegali e fare una doccia nuda con uno studente. Se i modelli di intelligenza artificiale sono ottimizzati per la pornografia, persone come John possono diventare pornostar da un giorno all'altro.

Si possono anche creare immagini di John che fa cose apparentemente inoffensive che possono essere devastanti se viene mostrato mentre beve in un bar quando ha promesso la sobrietà.

Non finisce qui.

Una persona può anche apparire in un momento più leggero come un cavaliere medievale o un astronauta. In alcuni casi, le persone potrebbero essere sia giovani che anziane o addirittura vestirsi.

Tuttavia, il reso immagini sono tutt'altro che perfetti. Uno sguardo più attento li può fuori come falsi.

Lo svantaggio è che la tecnologia che crea queste immagini è stata notevolmente migliorata e potrebbe rendere impossibile distinguere tra una foto sintetizzata e una reale.

Eppure, nonostante i loro difetti, i falsi potrebbero gettare ombre di dubbio su John e potenzialmente rovinare la sua reputazione.

Di recente, un certo numero di persone ha utilizzato questa stessa tecnica (con persone reali) per generare foto del profilo bizzarre e artistiche di se stesse.

Anche servizi commerciali e app come obiettivo sono cresciuti come funghi che gestiscono la formazione.

Come funziona?

Il lavoro su John potrebbe sembrare notevole se non si seguono le tendenze. Oggi, gli ingegneri del software sanno come creare nuove immagini fotorealistiche di qualsiasi cosa si possa immaginare.

A parte le foto, l'IA ha controverso consentito alle persone di creare nuove opere d'arte che clonano il lavoro di artisti esistenti senza il loro permesso.

Sospeso per motivi etici

Mitch Jackson, un avvocato specializzato in tecnologia statunitense, ha espresso preoccupazione per la proliferazione di deep fake technology sul mercato e afferma che studierà gli impatti legali della tecnologia per la maggior parte del 2023.

"Distinguere tra ciò che è reale e ciò che è falso finirà per diventare impossibile per la maggior parte dei consumatori".

Adobe dispone già di una tecnologia audio chiamata Adobe VoCo che consente a chiunque di suonare esattamente come qualcun altro. Il lavoro su Adobe VoCo è stato sospeso per motivi etici, ma dozzine di altre aziende stanno perfezionando la tecnologia, con alcune che oggi offrono alternative. Dai un'occhiata, o ascolta, tu stesso", Mitchum disse.

Le immagini e le versioni video di video deep fake stanno migliorando sempre di più, afferma.

"A volte è impossibile distinguere i video falsi da quelli veri", aggiunge.

Stable Diffusion utilizza un modello di sintesi di immagini di apprendimento profondo che può creare nuove immagini da descrizioni di testo e può essere eseguito su un PC Windows o Linux, su un Mac o nel cloud su hardware del computer noleggiato.

La rete neurale di Stable Diffusion, con l'aiuto dell'apprendimento intensivo, è riuscita ad associare le parole e l'associazione statistica generale tra le posizioni dei pixel nelle immagini.

Per questo motivo, si può dare a Stable Diffusion un prompt, come "Tom Hanks in a classroom", e darà all'utente una nuova immagine di Tom Hanks in una classe.

Nel caso di Tom Hank, è una passeggiata perché centinaia delle sue foto sono già nel set di dati utilizzato per addestrare Stable Diffusion. Ma per creare immagini di persone come John, l'intelligenza artificiale avrà bisogno di un po' di aiuto.

Ecco dove calci Dreambooth.

Dreambooth, che è stato lanciato il 30 agosto dai ricercatori di Google, utilizza una tecnica speciale per addestrare Stable Diffusion attraverso un processo chiamato "fine tuning".

All'inizio, Dreambooth non era associato a Stable Diffusion e Google non aveva reso disponibile il suo codice sorgente per timori di abusi.

In pochissimo tempo, qualcuno ha trovato un modo per adattare la tecnica di Dreambooth per lavorare con Stable Diffusion e ha rilasciato il codice liberamente come progetto open source, rendendo Dreambooth un modo molto popolare per gli artisti di intelligenza artificiale per insegnare a Stable Diffusion nuovi stili artistici.

Impatto mondiale

Si stima che 4 miliardi di persone in tutto il mondo utilizzino i social media. Poiché molti di noi hanno caricato più di una manciata di foto di noi stessi, potremmo diventare tutti vulnerabili a tali attacchi.

Sebbene l'impatto della tecnologia di sintesi delle immagini sia stato descritto dal punto di vista di un uomo, anche le donne tendono a sopportarne il peso maggiore.

Quando il viso o il corpo di una donna viene reso, la sua identità può essere maliziosamente inserita in immagini pornografiche.

Ciò è stato reso possibile dall'enorme numero di immagini sessualizzate trovate nei set di dati utilizzati nell'addestramento AI.

In altre parole, ciò significa che l'IA conosce fin troppo bene come generare quelle immagini pornografiche.

Nel tentativo di affrontare alcuni di questi problemi etici, Stability AI è stata costretta a rimuovere il materiale NSFW dal suo set di dati di addestramento per la sua versione 2.0 più recente.

Sebbene la sua licenza software impedisca alle persone di utilizzare il generatore di intelligenza artificiale per creare immagini di persone senza il loro permesso, il potenziale di applicazione è minimo o nullo.

Inoltre, i bambini non sono al sicuro dalle immagini sintetizzate e potrebbero essere vittime di bullismo utilizzando questa tecnologia anche nei casi in cui le immagini non vengono manipolate.

Tecnologia di intelligenza artificiale che crea immagini finte profonde che distruggono la vita

Fatto da umani?

C'è qualcosa che possiamo fare al riguardo?

L'elenco delle cose da fare varia da persona a persona. Un modo è fare il passo drastico di rimuovere tutte le immagini offline tutte insieme.

Sebbene ciò possa funzionare per la gente comune, non è una gran soluzione per celebrità e altri personaggi pubblici.

Tuttavia, in futuro, le persone potrebbero essere in grado di proteggersi dall'abuso di foto attraverso mezzi tecnici. I futuri generatori di immagini AI potrebbero essere obbligati legalmente a incorporare filigrane invisibili nei loro output.

In questo modo, le loro filigrane possono essere lette in un secondo momento e rendere più facile per le persone sapere che sono falsi.

"È necessaria un'ampia regolamentazione. Qualsiasi pezzo di contenuto manipolato o falso dovrebbe essere tenuto a mostrare in modo ben visibile una lettera o un avvertimento, proprio come il film (G, PG, R e X). Forse qualcosa come Digitally Altereded o DA," Mitchum dice.

Quest'anno Stability AI ha lanciato Stable Diffusion come progetto open source.

A suo merito, Stable Diffusion utilizza già filigrane incorporate per impostazione predefinita, ma le persone che accedono alla sua versione open source tendono ad aggirarlo disabilitando il componente filigrana del software o rimuovendolo completamente.

MIT per mitigare

Anche se questo è puramente speculativo, una filigrana aggiunta volontariamente alle foto personali, potrebbe essere in grado di interrompere il processo di formazione di Dreambooth. Lo ha detto un gruppo di ricercatori del MIT Fotoguardia, un processo contraddittorio che mira a proteggere e salvaguardare l'intelligenza artificiale dalla sintesi di una foto esistente attraverso modifiche minori attraverso l'uso di un metodo di filigrana invisibile. Questo, tuttavia, è limitato solo ai casi d'uso di editing AI (spesso chiamato "inpainting") e include l'addestramento o la generazione di immagini.

"L'intelligenza artificiale sta prendendo il controllo della scrittura e della pittura! I falsi profondi rovineranno il video!
Buona.
Ciò significa che le esibizioni dal vivo diventano ancora più preziose. Le fiere prospereranno. Gli umani vogliono fare affari con gli umani.
Meatspace è ancora il miglior spazio" Jonathan Pitchard dice.

Di recente, c'è stata una proliferazione della tecnologia AI che scrive poesie, rime e canzoni. E alcuni che lo sono mastering games.

I critici hanno preso i progressi tecnologici in modo negativo e credono che le IA stiano assumendo posti di lavoro umani.

/MetaNews.

Timestamp:

Di più da MetaNotizie