Les développeurs de Bored Apes abandonnent le système d'entraînement militaire américano-britannique

Les développeurs de Bored Apes abandonnent le système d'entraînement militaire américano-britannique

Nœud source: 1772253

Avez-vous déjà publié des photos de vous sur des plateformes de médias sociaux comme Facebook, Instagram, Tik Tok et autres ? Si c'est le cas, il est peut-être temps de reconsidérer ces affectations.

En effet, une nouvelle technologie de génération d'images AI permet désormais aux utilisateurs de sauvegarder un tas de photos et d'images vidéo de vous, puis de les former pour créer des faux "réalistes" de votre photo vous représentant dans des positions carrément embarrassantes, des positions illégales et parfois compromettantes.

Eh bien, tout le monde n'est pas à risque, mais la menace est réelle.

Bien que les photographies aient toujours été sujettes à manipulation et la falsification depuis l'ère des chambres noires où les films étaient manipulés avec des ciseaux et collés jusqu'au photohopping de pixels aujourd'hui.

Alors que c'était une tâche ardue et nécessitait une mesure de compétences spécialisées à l'époque, de nos jours, créer des contrefaçons photoréalistes convaincantes a été rendu trop facile.

Un modèle d'IA doit d'abord apprendre à rendre ou à synthétiser une image de quelqu'un en une photo à partir d'un modèle 2D ou 3D via un logiciel. Une fois l'image rendue avec succès, l'image devient naturellement un jouet pour la technologie et a la capacité de générer des quantités infinies d'images.

Lorsque l'on choisit de partager le modèle d'IA, d'autres personnes peuvent également participer et commencer à créer des images de cette personne également.

Une technologie d'IA qui crée de fausses images profondes qui détruisent la vie

Réel ou généré par l'IA ?

Études de cas sur les médias sociaux

Un bénévole décrit comme « courageux » par Ars Technica, une publication technologique, qui avait initialement autorisé l'entreprise à utiliser ses images pour créer des contrefaçons, a changé d'avis.

En effet, en un rien de temps, les résultats des images rendues à partir du modèle d'IA étaient trop convaincants et trop dommageables pour la réputation du volontaire.

Compte tenu du risque élevé pour la réputation, une personne fictive générée par l'IA, John, est devenue un choix naturel.

John, le type fictif, était un enseignant du primaire qui, comme beaucoup d'autres personnes, a publié ses images sur Facebook au travail, à la maison et lors d'un tel événement.

Les images largement inoffensives de "John" ont été rendues puis utilisées pour entraîner l'IA à le placer dans des positions plus compromettantes.

À partir de seulement sept images, l'IA pourrait être entraînée à générer des images qui donnent l'impression que John mène une vie double et secrète. Par exemple, il est apparu comme quelqu'un qui aimait poser nu pour des selfies dans sa classe.

La nuit, il allait dans les bars en ressemblant à un clown.

Le week-end, il faisait partie d'un groupe paramilitaire extrémiste.

L'IA a également donné l'impression qu'il avait purgé une peine de prison pour une accusation de drogue illégale, mais avait caché ce fait à son employeur.

Sur une autre photo, John, qui est marié, pose à côté d'une femme nue qui n'est pas sa femme dans un bureau.

À l'aide d'un générateur d'images AI appelé Diffusion stable (version 1.5) et une technique appelée Dreambooth, Ars Technica a pu entraîner l'IA à générer des photos de John dans n'importe quel style. Bien que John soit une création fictive, n'importe qui pourrait théoriquement obtenir le même ensemble de résultats à partir de cinq images ou plus. Ces images peuvent être extraites de comptes de médias sociaux ou prises comme images fixes d'une vidéo.

Le processus d'apprentissage de l'IA pour créer des images de John a duré environ une heure et était gratuit grâce à un service de cloud computing de Google.

Une fois la formation terminée, la création des images a pris plusieurs heures, selon la publication. Et ce n'était pas parce que la génération des images était un processus quelque peu lent, mais parce qu'il était nécessaire de passer au peigne fin un certain nombre d '«images imparfaites» et d'utiliser une sorte d'incitation par «essais et erreurs» pour trouver les meilleures images.

L'étude a révélé qu'il était remarquablement beaucoup plus facile que d'essayer de créer un faux photoréaliste de "John" dans Photoshop à partir de zéro.

Grâce à la technologie, des personnes comme John peuvent avoir l'air d'avoir agi illégalement ou d'avoir commis des actes immoraux comme cambrioler, consommer des drogues illégales et prendre une douche nue avec un étudiant. Si les modèles d'IA sont optimisés pour la pornographie, des personnes comme John peuvent devenir des stars du porno presque du jour au lendemain.

On peut également créer des images de John faisant des choses apparemment inoffensives qui peuvent être dévastatrices s'il est montré en train de boire dans un bar alors qu'il a promis la sobriété.

Cela ne s'arrête pas là.

Une personne peut également apparaître dans un moment plus léger en tant que chevalier médiéval ou astronaute. Dans certains cas, les gens peuvent être à la fois jeunes et vieux ou même se déguiser.

Cependant, le rendu satellite sont loin d'être parfaits. Un examen plus approfondi peut les révéler comme des faux.

L'inconvénient est que la technologie qui crée ces images a été considérablement améliorée et pourrait rendre impossible la distinction entre une photo synthétisée et une vraie.

Pourtant, malgré leurs défauts, les contrefaçons pourraient jeter l'ombre d'un doute sur John et potentiellement ruiner sa réputation.

Dernièrement, un certain nombre de personnes ont utilisé cette même technique (avec de vraies personnes) pour générer des photos de profil originales et artistiques d'elles-mêmes.

Également des services commerciaux et des applications comme Lentille ont poussé comme des champignons qui gèrent la formation.

Comment cela fonctionne ? 

Le travail sur John peut sembler remarquable si l'on n'a pas suivi les tendances. Aujourd'hui, les ingénieurs en logiciel savent comment créer de nouvelles images photoréalistes de tout ce que l'on peut imaginer.

Outre les photos, l'IA a permis de manière controversée aux gens de créer de nouvelles œuvres d'art qui clonent le travail d'artistes existants sans leur permission.

Suspendu pour des raisons éthiques

Mitch Jackson, un avocat américain spécialisé dans la technologie, s'est dit préoccupé par la prolifération de technologies contrefaites profondes sur le marché et a déclaré qu'il étudierait les impacts juridiques de la technologie pendant la majeure partie de 2023.

"Faire la distinction entre ce qui est vrai et ce qui est faux deviendra finalement impossible pour la plupart des consommateurs.

Adobe dispose déjà d'une technologie audio appelée Adobe VoCo qui permet à n'importe qui de sonner exactement comme quelqu'un d'autre. Les travaux sur Adobe VoCo ont été suspendus pour des raisons éthiques, mais des dizaines d'autres entreprises perfectionnent la technologie, certaines proposant aujourd'hui des alternatives. Regardez ou écoutez par vous-même », Mitchum a affirmé Valérie Plante..

Les images et les versions vidéo de fausses vidéos profondes s'améliorent de mieux en mieux, dit-il.

"Parfois, il est impossible de distinguer les fausses vidéos des vraies", ajoute-t-il.

Stable Diffusion utilise un modèle de synthèse d'images d'apprentissage en profondeur qui peut créer de nouvelles images à partir de descriptions textuelles et peut fonctionner sur un PC Windows ou Linux, sur un Mac ou dans le cloud sur du matériel informatique loué.

Le réseau de neurones de Stable Diffusion a, à l'aide d'un apprentissage intensif, maîtrisé les mots associés et l'association statistique générale entre les positions des pixels dans les images.

Pour cette raison, on peut donner à Stable Diffusion une invite, telle que "Tom Hanks dans une salle de classe", et cela donnera à l'utilisateur une nouvelle image de Tom Hanks dans une salle de classe.

Dans le cas de Tom Hank, c'est une promenade dans le parc car des centaines de ses photos sont déjà dans l'ensemble de données utilisé pour former Stable Diffusion. Mais pour créer des images de personnes comme John, l'IA aura besoin d'un peu d'aide.

C'est là que Dreambooth entre en jeu.

Dreambooth, qui a été lancé le 30 août par des chercheurs de Google, utilise une technique spéciale pour former Stable Diffusion grâce à un processus appelé "réglage fin".

Au début, Dreambooth n'était pas associé à Stable Diffusion, et Google n'avait pas rendu son code source disponible par crainte d'abus.

En un rien de temps, quelqu'un a trouvé un moyen d'adapter la technique Dreambooth pour travailler avec Stable Diffusion et a publié le code librement en tant que projet open source, faisant de Dreambooth un moyen très populaire pour les artistes IA d'enseigner de nouveaux styles artistiques à Stable Diffusion.

Impact mondial

On estime que 4 milliards de personnes dans le monde utilisent les médias sociaux. Comme beaucoup d'entre nous ont téléchargé plus d'une poignée de photos de nous-mêmes, nous pourrions tous devenir vulnérables à de telles attaques.

Bien que l'impact de la technologie de synthèse d'images ait été décrit du point de vue d'un homme, les femmes ont également tendance à en supporter le poids.

Lorsque le visage ou le corps d'une femme est rendu, son identité peut être malicieusement insérée dans des images pornographiques.

Cela a été rendu possible par le grand nombre d'images sexualisées trouvées dans les ensembles de données utilisés dans la formation à l'IA.

En d'autres termes, cela signifie que l'IA ne sait que trop comment générer ces images pornographiques.

Dans le but de résoudre certains de ces problèmes éthiques, Stability AI a été contraint de supprimer le matériel NSFW de son ensemble de données de formation pour sa version 2.0 plus récente.

Bien que sa licence logicielle empêche les gens d'utiliser le générateur d'IA pour créer des images de personnes sans leur permission, il y a très peu ou pas de potentiel d'application.

Les enfants ne sont pas non plus à l'abri des images de synthèse et pourraient être victimes d'intimidation en utilisant cette technologie même dans les cas où les images ne sont pas manipulées.

Une technologie d'IA qui crée de fausses images profondes qui détruisent la vie

Fabriqué par des humains ?

Y a-t-il quelque chose que nous pouvons faire pour cela?

La liste des choses à faire varie d'une personne à l'autre. Une façon consiste à prendre la décision radicale de supprimer toutes les images hors ligne.

Bien que cela puisse fonctionner pour les gens ordinaires, ce n'est pas vraiment une solution pour les célébrités et autres personnalités publiques.

Cependant, à l'avenir, les gens pourront peut-être se protéger contre les abus de photos par des moyens techniques. Les futurs générateurs d'images d'IA pourraient être contraints légalement d'intégrer des filigranes invisibles dans leurs sorties.

De cette façon, leurs filigranes peuvent être lus plus tard et permettent aux gens de savoir facilement qu'ils sont faux.

"Une réglementation poussée est nécessaire. Tout élément de contenu manipulé ou faux devrait être tenu d'afficher bien en évidence une lettre ou un avertissement, un peu comme le film (G, PG, R et X). Peut-être quelque chose comme Digitally Altertered ou DA, » dit Mitchum.

Stability AI a lancé cette année son Stable Diffusion en tant que projet open source.

À son crédit, Stable Diffusion utilise déjà des filigranes intégrés par défaut, mais les personnes accédant à sa version open source ont tendance à le contourner en désactivant le composant de filigrane du logiciel ou en le supprimant entièrement.

MIT pour atténuer

Bien que ce soit purement spéculatif, un filigrane ajouté volontairement aux photos personnelles, peut être en mesure de perturber le processus de formation Dreambooth. Un groupe de chercheurs du MIT a déclaré PhotoGuard, un processus contradictoire qui vise à protéger et empêcher l'IA de synthétiser une photo existante par des modifications mineures grâce à l'utilisation d'une méthode de filigrane invisible. Ceci, cependant, n'est limité qu'aux cas d'utilisation de l'édition AI (souvent appelée "inpainting") et inclut la formation ou la génération d'images.

"L'IA prend le relais de l'écriture et de la peinture ! Les contrefaçons profondes ruineront la vidéo !
Bon.
Cela signifie que les performances en direct deviennent encore PLUS précieuses. Les salons prospéreront. Les humains veulent faire des affaires avec les humains.
Meatspace est toujours le meilleur espace » Jonathan Pitchard dit.

Dernièrement, il y a eu une prolifération de technologies d'IA qui écrivent poems, comptines et chansons. Et certains qui sont masterisations jeux.

Les critiques ont pris les progrès technologiques de manière négative et pensent que les IA prennent en charge les emplois humains.

/MétaActualités.

Horodatage:

Plus de MétaActualités