Bored Apes-ontwikkelaars verlaten het Amerikaanse en Britse militaire trainingssysteem

Bored Apes-ontwikkelaars verlaten het Amerikaanse en Britse militaire trainingssysteem

Bronknooppunt: 1772253

Heb je ooit foto's van jezelf gepost op sociale mediaplatforms zoals Facebook, Instagram, Tik Tok en anderen? Als dat zo is, is het misschien tijd om die berichten te heroverwegen.

Dit komt omdat een nieuwe AI-technologie voor het genereren van afbeeldingen gebruikers nu in staat stelt een aantal foto's en videoframes van u op te slaan en deze vervolgens te trainen om "realistische" vervalsingen van uw foto te maken waarop u wordt afgebeeld in ronduit gênante posities, illegale en soms compromitterende posities.

Nou, niet iedereen loopt gevaar, maar de dreiging is reëel.

Hoewel foto's altijd vatbaar zijn geweest voor manipulatie en vervalsing uit het tijdperk van donkere kamers waar films met een schaar werden gemanipuleerd en geplakt tot en met het photoshoppen van pixels vandaag.

Hoewel het in die tijd een ontmoedigende taak was en een zekere mate van specialistische vaardigheden vereiste, is het tegenwoordig te gemakkelijk gemaakt om overtuigende fotorealistische vervalsingen te maken.

Eerst moet een AI-model leren hoe een afbeelding van iemand via software kan worden weergegeven of gesynthetiseerd tot een foto van een 2D- of 3D-model. Zodra de afbeelding met succes is weergegeven, wordt de afbeelding natuurlijk een speeltje voor de technologie en heeft het de capaciteit om oneindige hoeveelheden afbeeldingen te genereren.

Wanneer iemand ervoor kiest om het AI-model te delen, kunnen andere mensen ook meedoen en ook afbeeldingen van die persoon gaan maken.

AI-technologie die levensvernietigende diepe nepbeelden creëert

Echt of door AI gegenereerd?

Casestudy's over sociale media

Een vrijwilliger beschreven als "dapper" door Ars Technica, een technische publicatie, die het bedrijf aanvankelijk had toegestaan ​​zijn afbeeldingen te gebruiken om vervalsingen te maken, veranderde van gedachten.

De resultaten van gerenderde afbeeldingen uit het AI-model waren namelijk binnen de kortste keren te overtuigend en te schadelijk voor de reputatie van de vrijwilliger.

Gezien het hoge reputatierisico, werd een door AI gegenereerde fictieve persoon, John, een natuurlijke keuze.

John, de fictieve man, was een leraar op een basisschool, die net als veel andere mensen zijn foto's op Facebook heeft gepost op het werk, chill thuis en op zo'n evenement.

De grotendeels onschadelijke afbeeldingen van "John" werden weergegeven en vervolgens gebruikt om de AI te trainen om hem in meer compromitterende posities te plaatsen.

Van slechts zeven afbeeldingen zou de AI kunnen worden getraind om afbeeldingen te genereren waardoor het lijkt alsof John een dubbel en geheim leven leidt. Hij verscheen bijvoorbeeld als iemand die graag naakt poseerde voor selfies in zijn klaslokaal.

'S Nachts ging hij naar bars en zag eruit als een clown.

In het weekend maakte hij deel uit van een extremistische paramilitaire groepering.

De AI wekte ook de indruk dat hij tijd in de gevangenis had gezeten voor een aanklacht wegens illegale drugs, maar dit feit voor zijn werkgever had verborgen gehouden.

Op een andere foto is John, die getrouwd is, te zien poseren naast een naakte vrouw die niet zijn vrouw is in een kantoor.

Met behulp van een AI-beeldgenerator genaamd Stabiele diffusie (versie 1.5) en een techniek genaamd Dreambooth, was Ars Technica in staat om de AI te trainen in het genereren van foto's van John in welke stijl dan ook. Hoewel John een fictieve creatie was, zou iedereen in theorie dezelfde reeks resultaten kunnen bereiken met vijf of meer afbeeldingen. Deze afbeeldingen kunnen van sociale media-accounts worden geplukt of als stilstaande beelden uit een video worden genomen.

Het proces om de AI te leren hoe afbeeldingen van John te maken, duurde ongeveer een uur en was gratis dankzij een cloudcomputingservice van Google.

Toen de training was voltooid, duurde het maken van de afbeeldingen enkele uren, aldus de publicatie. En dit was niet omdat het genereren van de afbeeldingen een wat traag proces was, maar omdat het nodig was om door een aantal "onvolmaakte afbeeldingen" te kammen en een soort "trial-and-error"-aanwijzingen te gebruiken om de beste afbeeldingen te vinden.

Uit de studie bleek dat het opmerkelijk veel gemakkelijker was in vergelijking met een poging om vanuit het niets een fotorealistische nep van "John" in Photoshop te maken.

Dankzij technologie kunnen mensen zoals John eruitzien alsof ze illegaal hebben gehandeld, of immorele daden hebben gepleegd, zoals inbraak, het gebruik van illegale drugs en naakt douchen met een student. Als de AI-modellen zijn geoptimaliseerd voor pornografie, kunnen mensen zoals John bijna van de ene op de andere dag pornosterren worden.

Je kunt ook afbeeldingen maken van John die ogenschijnlijk onschuldige dingen doet die verwoestend kunnen zijn als hem wordt getoond dat hij zich indrinkt in een bar terwijl hij nuchterheid heeft beloofd.

Daar houdt het niet op.

Een persoon kan ook op een lichter moment verschijnen als een middeleeuwse ridder of een astronaut. In sommige gevallen kunnen mensen zowel jong als oud zijn of zich zelfs verkleden.

Echter, de weergegeven afbeeldingen zijn verre van perfect. Bij nader inzien kunnen ze als vervalsingen worden beschouwd.

Het nadeel is dat de technologie die deze afbeeldingen maakt, aanzienlijk is verbeterd en het onmogelijk kan maken om onderscheid te maken tussen een gesynthetiseerde foto en een echte foto.

Maar ondanks hun tekortkomingen kunnen de vervalsingen schaduwen van twijfel over John werpen en mogelijk zijn reputatie ruïneren.

De laatste tijd hebben een aantal mensen dezelfde techniek gebruikt (met echte mensen) om eigenzinnige en artistieke profielfoto's van zichzelf te maken.

Ook commerciële diensten en apps zoals lensa zijn als paddestoelen uit de grond geschoten die de training afhandelen.

Hoe werkt het?

Het werk over John lijkt misschien opmerkelijk als je de trends niet hebt gevolgd. Tegenwoordig weten software-ingenieurs hoe ze nieuwe fotorealistische afbeeldingen kunnen maken van alles wat men maar kan bedenken.

Afgezien van foto's, heeft de AI controversieel mensen in staat gesteld om zonder hun toestemming nieuwe kunstwerken te maken die het werk van bestaande kunstenaars klonen.

Geschorst wegens ethische bezwaren

Mitch Jackson, een Amerikaanse technologieadvocaat, uitte zijn bezorgdheid over de verspreiding van deepfake-technologie op de markt en zegt dat hij de juridische gevolgen van technologie in het grootste deel van 2023 zal bestuderen.

"Onderscheid maken tussen wat echt is en wat nep is, zal uiteindelijk voor de meeste consumenten onmogelijk worden.”

Adobe heeft al audiotechnologie genaamd Adobe VoCo waarmee iedereen precies als iemand anders kan klinken. Het werk aan Adobe VoCo werd opgeschort vanwege ethische bezwaren, maar tientallen andere bedrijven zijn de technologie aan het perfectioneren, en sommige bieden tegenwoordig alternatieven. Kijk of luister zelf maar,' Mitchum zei.

Foto's en videoversies van deepfake-video's worden steeds beter, zegt hij.

"Soms is het onmogelijk om de nepvideo's van de echte te onderscheiden", voegt hij eraan toe.

Stable Diffusion maakt gebruik van een deep-learning beeldsynthesemodel dat nieuwe afbeeldingen kan maken van tekstbeschrijvingen en kan worden uitgevoerd op een Windows- of Linux-pc, op een Mac of in de cloud op gehuurde computerhardware.

Het neurale netwerk van Stable Diffusion heeft zich met behulp van intensief leren meester gemaakt over het associëren van woorden en de algemene statistische associatie tussen de posities van pixels in afbeeldingen.

Hierdoor kan men Stable Diffusion een prompt geven, zoals "Tom Hanks in een klaslokaal", en het zal de gebruiker een nieuw beeld geven van Tom Hanks in een klaslokaal.

In het geval van Tom Hank is het kinderspel, want honderden van zijn foto's zitten al in de dataset die wordt gebruikt om Stable Diffusion te trainen. Maar voor het maken van afbeeldingen van mensen zoals John heeft de AI een beetje hulp nodig.

Dat is waar Dreambooth kickt.

Dreambooth, dat op 30 augustus werd gelanceerd door Google-onderzoekers, gebruikt een speciale techniek om Stable Diffusion's te trainen via een proces dat 'fijnafstemming' wordt genoemd.

Aanvankelijk was Dreambooth niet gekoppeld aan Stable Diffusion en had Google de broncode niet beschikbaar gesteld uit vrees voor misbruik.

In een mum van tijd vond iemand een manier om de Dreambooth-techniek aan te passen om met Stable Diffusion te werken en bracht de code vrijelijk uit als een open source-project, waardoor Dreambooth een zeer populaire manier werd voor AI-artiesten om Stable Diffusion nieuwe artistieke stijlen te leren.

Wereldwijde impact

Wereldwijd maken naar schatting 4 miljard mensen gebruik van sociale media. Aangezien velen van ons meer dan een handvol foto's van onszelf hebben geüpload, kunnen we allemaal kwetsbaar worden voor dergelijke aanvallen.

Hoewel de impact van de beeldsynthesetechnologie is weergegeven vanuit het standpunt van een man, hebben ook vrouwen de neiging hier de dupe van te worden.

Wanneer het gezicht of lichaam van een vrouw wordt weergegeven, kan haar identiteit op ondeugende wijze in pornografische beelden worden opgenomen.

Dit is mogelijk gemaakt door het enorme aantal geseksualiseerde afbeeldingen dat is gevonden in datasets die worden gebruikt bij AI-training.

Met andere woorden, dit betekent dat de AI maar al te bekend is met het genereren van die pornografische afbeeldingen.

In een poging om enkele van deze ethische kwesties aan te pakken, werd Stability AI gedwongen om NSFW-materiaal te verwijderen uit zijn trainingsdataset voor de meer recente 2.0-release.

Hoewel de softwarelicentie mensen verbiedt de AI-generator te gebruiken om zonder hun toestemming afbeeldingen van mensen te maken, is er weinig tot geen mogelijkheid voor handhaving.

Kinderen zijn ook niet veilig voor gesynthetiseerde afbeeldingen en kunnen gepest worden door deze technologie te gebruiken, zelfs in gevallen waarin afbeeldingen niet zijn gemanipuleerd.

AI-technologie die levensvernietigende diepe nepbeelden creëert

Gemaakt door mensen?

Kunnen we er iets aan doen?

De lijst met dingen om te doen verschilt van persoon tot persoon. Een manier is om de drastische stap te nemen om alle afbeeldingen offline te verwijderen.

Hoewel dat misschien werkt voor gewone mensen, is het niet echt een oplossing voor beroemdheden en andere publieke figuren.

In de toekomst kunnen mensen zich echter mogelijk met technische middelen beschermen tegen misbruik van foto's. Toekomstige AI-beeldgeneratoren zouden legaal kunnen worden gedwongen om onzichtbare watermerken in hun uitvoer op te nemen.

Op die manier kunnen hun watermerken later worden gelezen en kunnen mensen gemakkelijk zien dat ze nep zijn.

"Uitgebreide regelgeving is nodig. Elk stuk gemanipuleerde of nep-inhoud moet een prominente letter of waarschuwing bevatten, net zoals in de film (G, PG, R en X). Misschien zoiets als Digitally Altertered of DA," zegt Mitchum.

Stability AI lanceerde dit jaar zijn Stable Diffusion als een open source-project.

Het siert dat Stable Diffusion standaard al ingebedde watermerken gebruikt, maar mensen die toegang hebben tot de open source-versie hebben de neiging om er omheen te gaan door de watermerkcomponent van de software uit te schakelen of deze volledig te verwijderen.

MIT om te verzachten

Hoewel dit puur speculatief is, kan een vrijwillig toegevoegd watermerk aan persoonlijke foto's het Dreambooth-trainingsproces verstoren. Dat zei een groep MIT-onderzoekers FotoGuard, een vijandig proces dat tot doel heeft AI te beschermen en te vrijwaren van het synthetiseren van een bestaande foto door middel van kleine aanpassingen door het gebruik van een onzichtbare watermerkmethode. Dit is echter alleen beperkt tot gebruiksscenario's voor AI-bewerking (vaak "inpainting" genoemd) en omvat training of het genereren van afbeeldingen.

"AI neemt schrijven en schilderen over! Diepe vervalsingen zullen video verpesten!
Goed.
Dat betekent dat live optreden nog MEER waardevol wordt. Beurzen zullen gedijen. Mensen willen zaken doen met mensen.
Meatspace is nog steeds bestspace" Jonathan Pitchard zegt.

De laatste tijd is er een wildgroei aan AI-technologie die schrijft gedichten, rijmpjes en liedjes. En sommige zijn dat masteringen games.

Critici hebben de technologische vooruitgang negatief opgevat en geloven dat AI's menselijke banen overnemen.

/MetaNieuws.

Tijdstempel:

Meer van MetaNieuws