Udviklere af kede aber opgiver US-UK Military Training System

Udviklere af kede aber opgiver US-UK Military Training System

Kildeknude: 1772253

Har du nogensinde postet billeder af dig selv på sociale medieplatforme som Facebook, Instagram, Tik Tok og andre? Hvis ja, er det måske på tide at genoverveje disse opslag.

Dette skyldes, at en ny AI-billedgenereringsteknologi nu tillader brugere at gemme en masse fotos og videorammer af dig og derefter træne den til at skabe "realistiske" forfalskninger af dit foto, der viser dig i direkte pinlige positioner, ulovlige og nogle gange kompromitterende positioner.

Nå, ikke alle er i fare, men truslen er reel.

Selvom fotografier altid har været tilbøjelige til manipulation og forfalskning fra mørkekammerets æra, hvor film blev manipuleret med saks og indsat lige igennem til photoshopping af pixels i dag.

Selvom det var en skræmmende opgave og krævede en vis grad af specialistfærdigheder i disse dage, er det i disse dage blevet gjort for let at skabe overbevisende fotorealistiske forfalskninger.

Først skal en AI-model lære at gengive eller syntetisere et billede af en person til et foto fra en 2D- eller 3D-model via software. Når først billedet er gengivet med succes, bliver billedet naturligt en legetøj for teknologien og har kapacitet til at generere uendelige mængder af billeder.

Når man vælger at dele AI-modellen, kan andre mennesker også være med og begynde at skabe billeder af denne person.

AI-teknologi, der skaber livstruende dybe falske billeder

Ægte eller AI-genereret?

Casestudier på sociale medier

En frivillig beskrevet som "modig" af Ars Technica, en teknisk publikation, som oprindeligt havde tilladt virksomheden at bruge hans billeder til at skabe forfalskninger, havde en forandring i hjertet.

Dette skyldes, at resultaterne af gengivede billeder fra AI-modellen på ingen tid var for overbevisende og for skadelige omdømmemæssigt for den frivillige.

I betragtning af den høje omdømmerisiko blev en AI-genereret fiktiv person, John, et naturligt valg.

John, den fiktive fyr, var en folkeskolelærer, der ligesom mange andre mennesker har lagt sine billeder op på Facebook på arbejde, afkølet derhjemme og ved sådan en begivenhed.

De stort set harmløse billeder af "John" blev gengivet og derefter brugt til at træne AI til at sætte ham i mere kompromitterende positioner.

Ud fra kun syv billeder kunne AI'en trænes til at generere billeder, der får det til at se ud som om, at John lever et dobbelt og hemmeligt liv. For eksempel optrådte han som en, der nød at posere nøgen til selfies i sit klasseværelse.

Om natten gik han på barer og lignede en klovn.

I weekenden var han en del af en ekstremistisk paramilitær gruppe.

AI skabte også det indtryk, at han havde siddet i fængsel for en ulovlig narkotikaanklage, men havde skjult dette for sin arbejdsgiver.

På et andet billede ses John, der er gift, posere ved siden af ​​en nøgen kvinde, som ikke er hans kone, på et kontor.

Ved hjælp af en AI billedgenerator kaldet Stabil diffusion (version 1.5) og en teknik kaldet Dreambooth, var Ars Technica i stand til at træne AI'en i, hvordan man genererer billeder af John i enhver stil. Selvom John var en fiktiv skabelse, kunne enhver teoretisk opnå det samme sæt resultater fra fem eller flere billeder. Disse billeder kan plukkes fra konti på sociale medier eller tages som stillbilleder fra en video.

Processen med at lære AI, hvordan man laver billeder af John, tog omkring en time og var gratis takket være en Google cloud computing-tjeneste.

Da træningen var afsluttet, tog det flere timer at skabe billederne, sagde publikationen. Og det var ikke fordi det var en noget langsom proces at generere billederne, men fordi der var behov for at finde de bedste billeder igennem en række "uperfekte billeder" og bruge en "trial-and-error"-form.

Undersøgelsen viste, at det var bemærkelsesværdigt meget nemmere sammenlignet med at forsøge at skabe en fotorealistisk forfalskning af "John" i Photoshop fra bunden.

Takket være teknologien kan folk som John få det til at se ud, som om de handlede ulovligt eller begik umoralske handlinger såsom husbrud, brug af ulovlige stoffer og at tage et nøgenbad med en studerende. Hvis AI-modellerne er optimeret til pornografi, kan folk som John blive pornostjerner næsten fra den ene dag til den anden.

Man kan også skabe billeder af John, der gør tilsyneladende harmløse ting, der kan være ødelæggende, hvis han bliver vist indsugende på en bar, når han har lovet ædruelighed.

Det slutter ikke der.

En person kan også optræde i et lettere øjeblik som en middelalderlig ridder eller en astronaut. I nogle tilfælde kan folk enten være både unge og gamle eller endda klæde sig ud.

Dog den gengivet billeder er langt fra perfekte. Et nærmere kig kan se dem som forfalskninger.

Ulempen er, at teknologien, der skaber disse billeder, er blevet opgraderet betydeligt og kan gøre det umuligt at skelne mellem et syntetiseret foto og et rigtigt.

Alligevel på trods af deres fejl, kunne forfalskninger kaste skygger af tvivl om John og potentielt ødelægge hans omdømme.

På det seneste har en række mennesker brugt den samme teknik (med rigtige mennesker) til at generere skæve og kunstneriske profilbilleder af sig selv.

Også kommercielle tjenester og apps som Linse har svampet, der klarer træningen.

Hvordan virker det?

Arbejdet med John kan virke bemærkelsesværdigt, hvis man ikke har fulgt tendenser. I dag ved softwareingeniører, hvordan man skaber nye fotorealistiske billeder af alt, hvad man kan forestille sig.

Bortset fra fotos har AI kontroversielt tilladt folk at skabe nye kunstværker, der kloner eksisterende kunstneres arbejde uden deres tilladelse.

Suspenderet på grund af etiske bekymringer

Mitch Jackson, en amerikansk teknologiadvokat udtrykte bekymring over udbredelsen af ​​dyb falsk teknologi på markedet og siger, at han vil studere teknologiens juridiske konsekvenser i det meste af 2023.

"At skelne mellem, hvad der er ægte og hvad der er falsk, vil i sidste ende blive umuligt for de fleste forbrugere.”

Adobe har allerede lydteknologi kaldet Adobe VoCo, der gør det muligt for enhver at lyde præcis som en anden. Arbejdet med Adobe VoCo blev suspenderet på grund af etiske bekymringer, men snesevis af andre virksomheder perfektionerer teknologien, og nogle tilbyder alternativer i dag. Tag et kig eller lyt selv,” Mitchum sagde.

Billeder og videoversioner af dybe falske videoer bliver bedre og bedre, siger han.

"Nogle gange er det umuligt at skelne de falske videoer fra de rigtige," tilføjer han.

Stable Diffusion bruger dyb-lærende billedsyntesemodel, der kan skabe nye billeder ud fra tekstbeskrivelser og kan køre på en Windows- eller Linux-pc, på en Mac eller i skyen på lejet computerhardware.

Stable Diffusions neurale netværk har ved hjælp af intensiv læring mestret at associere ord og den generelle statistiske sammenhæng mellem positionerne af pixels i billeder.

På grund af dette kan man give Stable Diffusion en prompt, såsom "Tom Hanks i et klasseværelse", og det vil give brugeren et nyt billede af Tom Hanks i et klasseværelse.

I Tom Hanks tilfælde er det en tur i parken, fordi hundredvis af hans billeder allerede er i det datasæt, der bruges til at træne Stable Diffusion. Men for at lave billeder af mennesker som John, har AI'en brug for lidt hjælp.

Det er der, Dreambooth starter.

Dreambooth, som blev lanceret den 30. august af Google-forskere, bruger en speciel teknik til at træne stabil diffusion gennem en proces kaldet "fine tuning".

I starten var Dreambooth ikke tilknyttet Stable Diffusion, og Google havde ikke gjort sin kildekode tilgængelig på grund af frygt for misbrug.

På ingen tid fandt nogen en måde at tilpasse Dreambooth-teknikken til at arbejde med Stable Diffusion og frigav koden frit som et open source-projekt, hvilket gjorde Dreambooth til en meget populær måde for AI-kunstnere at lære Stable Diffusion nye kunstneriske stilarter.

Verdensomspændende indflydelse

Det anslås, at 4 milliarder mennesker verden over bruger sociale medier. Da mange af os har uploadet mere end en håndfuld billeder af os selv, kan vi blive sårbare over for sådanne angreb.

Selvom virkningen af ​​billedsynteseteknologien er blevet afbildet fra en mands synsvinkel, har kvinder også en tendens til at bære hovedparten af ​​dette.

Når en kvindes ansigt eller krop gengives, kan hendes identitet blive skånsomt indsat i pornografiske billeder.

Dette er blevet muliggjort af det enorme antal seksualiserede billeder, der findes i datasæt, der bruges i AI-træning.

Med andre ord betyder det, at AI'en er alt for fortrolig med, hvordan man genererer disse pornografiske billeder.

I et forsøg på at løse nogle af disse etiske problemer, blev Stability AI tvunget til at fjerne NSFW-materiale fra dets træningsdatasæt til dets nyere 2.0-udgivelse.

Selvom dens softwarelicens forhindrer folk i at bruge AI-generatoren til at lave billeder af mennesker uden deres tilladelse, er der meget lidt eller intet potentiale for håndhævelse.

Børn er heller ikke sikre mod syntetiserede billeder og kan blive mobbet ved hjælp af denne teknologi, selv i tilfælde, hvor billeder ikke manipuleres.

AI-teknologi, der skaber livstruende dybe falske billeder

Lavet af mennesker?

Er der noget vi kan gøre ved det?

Listen over ting at gøre varierer fra person til person. En måde er at tage det drastiske skridt at fjerne billeder offline alle sammen.

Selvom det måske virker for almindelige mennesker, er det ikke meget af en løsning for berømtheder og andre offentlige personer.

Men i fremtiden kan folk muligvis beskytte sig selv mod fotomisbrug gennem tekniske midler. Fremtidige AI-billedgeneratorer kan blive tvunget lovligt til at indlejre usynlige vandmærker i deres output.

På den måde kan deres vandmærker læses senere og gøre det nemt for folk at vide, at de er falske.

"Omfattende regulering er nødvendig. Ethvert stykke manipuleret eller falsk indhold skal være forpligtet til at vise et bogstav eller en advarsel fremtrædende, ligesom filmen (G, PG, R og X). Måske noget som Digitally Altertered eller DA," siger Mitchum.

Stability AI lancerede sin Stable Diffusion som et open source-projekt i år.

Til sin ære bruger Stable Diffusion allerede indlejrede vandmærker som standard, men folk, der får adgang til dens open source-version, har en tendens til at gå uden om det ved enten at deaktivere vandmærkekomponenten i softwaren eller fjerne den helt.

MIT for at afbøde

Selvom dette er rent spekulativt, kan et vandmærke, der tilføjes frivilligt til personlige billeder, muligvis forstyrre Dreambooth-træningsprocessen. En gruppe MIT-forskere sagde PhotoGuard, en modstridende proces, der har til formål at beskytte og beskytte AI fra at syntetisere et eksisterende foto gennem mindre ændringer gennem brug af en usynlig vandmærkemetode. Dette er dog kun begrænset til AI-redigering (ofte kaldet "inpainting") brugstilfælde og inkluderer træning eller generering af billeder.

"AI overtager skrivning og maling! Dybe forfalskninger vil ødelægge videoen!
Godt.
Det betyder, at liveoptræden bliver endnu MERE værdifuld. Messer vil trives. Mennesker ønsker at gøre forretninger med mennesker.
Meatspace er stadig bestspace" Jonathan Pitchard siger.

På det seneste har der været en udbredelse af AI-teknologi, der skriver digte, rim og sange. Og nogle der er mestringer spil.

Kritikere har taget de teknologiske fremskridt negativt og mener, at AI'er overtager menneskelige job.

/MetaNews.

Tidsstempel:

Mere fra MetaNews