Utviklere av kjedsomme aper forlater militært treningssystem fra USA og Storbritannia

Utviklere av kjedsomme aper forlater militært treningssystem fra USA og Storbritannia

Kilde node: 1772253

Har du noen gang lagt ut bilder av deg selv på sosiale medieplattformer som Facebook, Instagram, Tik Tok og andre? I så fall er det kanskje på tide å revurdere disse innleggene.

Dette er fordi en ny AI-bildegenereringsteknologi tillater brukere å lagre en haug med bilder og videorammer av deg og deretter trene den til å lage "realistiske" forfalskninger av bildet ditt som viser deg i direkte pinlige posisjoner, ulovlige og noen ganger kompromitterende posisjoner.

Vel, ikke alle er i faresonen, men trusselen er reell.

Selv om fotografier alltid har vært utsatt for manipulering og forfalskning fra mørkeroms epoke hvor filmer ble manipulert med saks og limt inn helt til photoshopping av piksler i dag.

Selv om det var en skremmende oppgave og krevde et visst mål av spesialistferdigheter på den tiden, har det i disse dager blitt gjort for enkelt å lage overbevisende fotorealistiske forfalskninger.

Først må en AI-modell lære å gjengi eller syntetisere et bilde av noen til et bilde fra en 2D- eller 3D-modell via programvare. Når bildet er vellykket gjengitt, blir bildet naturlig en leketøy for teknologien og har kapasitet til å generere uendelige mengder bilder.

Når man velger å dele AI-modellen, kan andre også bli med og begynne å lage bilder av den personen også.

AI-teknologi som skaper livsødeleggende dype falske bilder

Ekte eller AI-generert?

Kasusstudier på sosiale medier

En frivillig beskrevet som "modig" av Ars Technica, en teknisk publikasjon, som i utgangspunktet hadde latt selskapet bruke bildene hans til å lage forfalskninger, hadde en endring i hjertet.

Dette er fordi resultatene av gjengitte bilder fra AI-modellen på kort tid var for overbevisende og for skadelig omdømmemessig for den frivillige.

Gitt den høye omdømmerisikoen ble en AI-generert fiktiv person, John, et naturlig valg.

John, den fiktive fyren, var en barneskolelærer, som i likhet med mange andre mennesker har lagt ut bildene sine på Facebook på jobb, kjølt seg ned hjemme og på et slikt arrangement.

De stort sett ustøtende bildene av "John" ble gjengitt og deretter brukt til å trene AI for å sette ham i mer kompromitterende posisjoner.

Fra bare syv bilder kunne AI-en trenes til å generere bilder som får det til å se ut som om John lever et dobbelt og hemmelig liv. For eksempel dukket han opp som en som likte å posere naken på selfies i klasserommet.

Om natten gikk han på barer og så ut som en klovn.

I helgene var han del av en ekstremistisk paramilitær gruppe.

AI skapte også inntrykk av at han hadde sittet i fengsel for en ulovlig narkotikaanklage, men hadde skjult dette for arbeidsgiveren.

På et annet bilde sees John, som er gift, posere ved siden av en naken kvinne som ikke er hans kone på et kontor.

Ved hjelp av en AI-bildegenerator kalt Stabil diffusjon (versjon 1.5) og en teknikk kalt Dreambooth, var Ars Technica i stand til å trene opp AI hvordan man genererer bilder av John i enhver stil. Selv om John var en fiktiv skapelse, kunne hvem som helst teoretisk oppnå samme sett med resultater fra fem eller flere bilder. Disse bildene kan plukkes fra sosiale medier-kontoer eller tas som stillbilder fra en video.

Prosessen med å lære AI hvordan man lager bilder av John tok omtrent en time og var gratis takket være en Google cloud computing-tjeneste.

Da opplæringen var fullført, tok det flere timer å lage bildene, sa publikasjonen. Og dette var ikke fordi genereringen av bildene var en noe langsom prosess, men fordi det var behov for å gre gjennom en rekke "uperfekte bilder" og bruke en "prøv-og-feil"-form for å finne de beste bildene.

Studien fant at det var bemerkelsesverdig mye enklere sammenlignet med å forsøke å lage en bilderealistisk falsk "John" i Photoshop fra bunnen av.

Takket være teknologi kan folk som John få det til å se ut som om de handlet ulovlig, eller begikk umoralske handlinger som husbrudd, bruk av ulovlige rusmidler og å ta en nakendusj med en student. Hvis AI-modellene er optimalisert for pornografi, kan folk som John bli pornostjerner nesten over natten.

Man kan også lage bilder av John som gjør tilsynelatende harmløse ting som kan være ødeleggende hvis han blir vist sugende på en bar når han har lovet edruelighet.

Det slutter ikke der.

En person kan også vises i et lettere øyeblikk som en middelaldersk ridder eller en astronaut. I noen tilfeller kan folk enten være både unge og gamle eller til og med kle seg ut.

Imidlertid gjengitt bilder er langt fra perfekte. En nærmere titt kan se dem som forfalskninger.

Ulempen er at teknologien som lager disse bildene har blitt betydelig oppgradert og kan gjøre det umulig å skille mellom et syntetisert bilde og et ekte.

Til tross for deres feil, kan forfalskningene kaste skygger av tvil om John og potensielt ødelegge ryktet hans.

I det siste har en rekke mennesker brukt den samme teknikken (med ekte mennesker) for å generere sære og kunstneriske profilbilder av seg selv.

Også kommersielle tjenester og apper som Linse har sopp som takler treningen.

Hvordan virker det?

Arbeidet med John kan virke bemerkelsesverdig hvis man ikke har fulgt trender. I dag vet programvareingeniører hvordan man lager nye fotorealistiske bilder av alt man kan forestille seg.

Bortsett fra bilder, har AI kontroversielt tillatt folk å lage nye kunstverk som kloner eksisterende kunstneres arbeid uten deres tillatelse.

Suspendert på grunn av etiske bekymringer

Mitch Jackson, en amerikansk teknologiadvokat uttrykte bekymring over spredningen av dyp falsk teknologi på markedet og sier at han vil studere teknologiens juridiske konsekvenser i det meste av 2023.

"Å skille mellom hva som er ekte og hva som er falskt, vil til slutt bli umulig for de fleste forbrukere.»

Adobe har allerede lydteknologi kalt Adobe VoCo som lar hvem som helst høres nøyaktig ut som noen andre. Arbeidet med Adobe VoCo ble suspendert på grunn av etiske bekymringer, men dusinvis av andre selskaper perfeksjonerer teknologien, og noen tilbyr alternativer i dag. Ta en titt, eller hør selv,» Mitchum sa.

Bilder og videoversjoner av dype falske videoer blir bedre og bedre, sier han.

"Noen ganger er det umulig å skille de falske videoene fra de ekte," legger han til.

Stable Diffusion bruker dyp-lærende bildesyntesemodell som kan lage nye bilder fra tekstbeskrivelser og kan kjøres på en Windows- eller Linux-PC, på en Mac eller i skyen på leid maskinvare.

Stable Diffusions nevrale nettverk har ved hjelp av intensiv læring mestret å assosiere ord og den generelle statistiske assosiasjonen mellom posisjonene til piksler i bilder.

På grunn av dette kan man gi Stable Diffusion en forespørsel, for eksempel "Tom Hanks i et klasserom", og det vil gi brukeren et nytt bilde av Tom Hanks i et klasserom.

I Tom Hanks tilfelle er det en tur i parken fordi hundrevis av bildene hans allerede er i datasettet som brukes til å trene Stable Diffusion. Men for å lage bilder av folk som John, vil AI trenge litt hjelp.

Det er der Dreambooth starter.

Dreambooth, som ble lansert 30. august av Google-forskere, bruker en spesiell teknikk for å trene stabile diffusjoner gjennom en prosess som kalles «finjustering».

Til å begynne med var ikke Dreambooth knyttet til Stable Diffusion, og Google hadde ikke gjort kildekoden sin tilgjengelig på grunn av frykt for misbruk.

På et blunk fant noen en måte å tilpasse Dreambooth-teknikken til å jobbe med Stable Diffusion og ga ut koden fritt som et åpen kildekode-prosjekt, noe som gjorde Dreambooth til en veldig populær måte for AI-artister å lære Stable Diffusion nye kunstneriske stiler.

Verdensomspennende innvirkning

Anslagsvis 4 milliarder mennesker over hele verden bruker sosiale medier. Siden mange av oss har lastet opp mer enn en håndfull bilder av oss selv, kan vi bli sårbare for slike angrep.

Selv om virkningen av bildesynteseteknologien har blitt avbildet fra en manns synsvinkel, har kvinner også en tendens til å bære byrden av dette også.

Når en kvinnes ansikt eller kropp gjengis, kan identiteten hennes bli rampete inn i pornografiske bilder.

Dette har blitt muliggjort av det enorme antallet seksualiserte bilder som finnes i datasett som brukes i AI-trening.

Med andre ord betyr dette at AI er altfor kjent med hvordan man genererer disse pornografiske bildene.

I et forsøk på å løse noen av disse etiske problemene, ble Stability AI tvunget til å fjerne NSFW-materiale fra treningsdatasettet for sin nyere 2.0-utgivelse.

Selv om programvarelisensen hindrer folk i å bruke AI-generatoren til å lage bilder av mennesker uten deres tillatelse, er det svært lite eller intet potensial for håndhevelse.

Barn er heller ikke trygge for syntetiserte bilder og kan bli mobbet ved å bruke denne teknologien selv i tilfeller der bilder ikke blir manipulert.

AI-teknologi som skaper livsødeleggende dype falske bilder

Laget av mennesker?

Er det noe vi kan gjøre med det?

Listen over ting å gjøre varierer fra person til person. En måte er å ta det drastiske skrittet å fjerne bilder frakoblet alle sammen.

Selv om det kan fungere for vanlige mennesker, er det ikke mye av en løsning for kjendiser og andre offentlige personer.

Men i fremtiden kan folk være i stand til å beskytte seg mot bildemisbruk gjennom tekniske midler. Fremtidige AI-bildegeneratorer kan bli tvunget lovlig til å legge inn usynlige vannmerker i utgangene sine.

På den måten kan vannmerkene deres leses senere og gjøre det enkelt for folk å vite at de er falske.

"En omfattende regulering er nødvendig. Enhver del av manipulert eller falskt innhold bør kreves for å fremtredende vise et brev eller en advarsel, omtrent som filmen (G, PG, R og X). Kanskje noe som Digitally Altertered eller DA," sier Mitchum.

Stability AI lanserte sin Stable Diffusion som et åpen kildekode-prosjekt i år.

Til æren bruker Stable Diffusion allerede innebygde vannmerker som standard, men folk som får tilgang til åpen kildekode-versjonen har en tendens til å gå rundt det ved enten å deaktivere vannmerkekomponenten i programvaren eller fjerne den helt.

MIT for å dempe

Selv om dette er rent spekulativt, kan et vannmerke som legges frivillig til personlige bilder, kunne forstyrre Dreambooth-treningsprosessen. En gruppe MIT-forskere sa PhotoGuard, en motstridende prosess som tar sikte på å beskytte og sikre AI fra å syntetisere et eksisterende bilde gjennom mindre modifikasjoner ved bruk av en usynlig vannmerkemetode. Dette er imidlertid bare begrenset til AI-redigering (ofte kalt "inpainting") brukstilfeller og inkluderer opplæring eller generering av bilder.

"AI tar over skriving og maling! Dype forfalskninger vil ødelegge videoen!
Bra.
Det betyr at liveopptreden blir enda MER verdifull. Messer vil trives. Mennesker ønsker å gjøre forretninger med mennesker.
Meatspace er fortsatt bestspace" Jonathan Pitchard sier.

I det siste har det vært en spredning av AI-teknologi som skriver dikt, rim og sanger. Og noen som er det mestringer spill.

Kritikere har tatt de teknologiske fremskritt negativt og mener AI-er tar over menneskelige jobber.

/MetaNews.

Tidstempel:

Mer fra MetaNews