Hamas-grusomheter er AI-generert, gjør krav på flere kilder

Hamas-grusomheter er AI-generert, gjør krav på flere kilder

Kilde node: 2937838

I følge flere kilder er et bilde av en brent jødisk baby drept av Hamas arbeidet med AI-generativ programvare.

Men en undersøkelse utført av MetaNews antyder at det er "beviset" for falskt innhold som er falskt. Problemstillingen er et mikrokosmos av et langt dypere problem, ettersom vanlige mennesker forsøker å skille virkelighet fra simulering og sannhet fra løgn.

En post-sannhet verden

Forferdelige bilder av et forkullet spedbarns lik er arbeidet til generativ AI. Dette er ifølge flere utsalgssteder, inkludert Times Now News og Forsvarspolitikk Asia. Influencer Jackson Hinkle, mest kjent for sin pro-russiske propaganda, forsterker det samme budskapet gjennom sine sosiale mediekanaler.

Striden begynte kl Torsdag da den jødiske konservative Ben Shapiro delte det brente babyfotografiet på X, og siterte det som bevis på Hamas brutalitet. En tydelig emosjonell Shapiro holdt ikke tilbake i sin fordømmelse.

"Du ville ha bildebevis på døde jødiske babyer?" spurte Shapiro. «Her er den, dere patetiske jødehatere. Israel vil minimere sivile tap. Men Israel vil ikke la den menneskelige dritten som gjorde dette leve. Hver unse blod som er sølt i Gaza er på Hamas.»

Det gikk imidlertid kort tid før spørsmål om gyldigheten av bildene dukket opp.

Politisk propaganda

Et barns død er alltid svært følelsesladet. Dette gjør emnet modent for politisk propaganda.

Hvis det er ekte, avslører bildet av et forkullet barnelik den ekstreme brutaliteten til Hamas-terrorister som invaderte Israel 7. oktober.

Noen utsalgssteder og kritikere på sosiale medier antyder at bildet er et påfunn for å skape falsk sympati for Israel og fordømmelse for Hamas. Påstanden deres hviler på to hovedpunkter. For det første sa et AI-verktøy kalt "AI or Not" at bildet var AI-generert. For det andre var det originale, ekte bildet ikke av en forkullet baby, men av en valp.

På den første påstanden ser ikke "AI or Not" ut til å være et helt pålitelig verktøy. Etter å ha testet det samme bildet flere ganger, endrer plattformen mening om fotografiets gyldighet. Gitt de stadig skiftende schizofrene svarene, gir "AI or Not" absolutt ingenting av verdi.

Det andre punktet, angående valpefotografiet, kan lettere bestemmes. Kilden til dette bildet er X-bruker Stellar mann. Stellar Man laget valpebildet på «5 sekunder» slik at de kunne demonstrere hvor enkelt det er å forfalske fotografiske bilder.

Demonstrasjonen fungerte altfor godt. Noen brukere utgir nå det falske valpebildet som originalen for å "bevise" at babybildet er falskt, og noen medier kjører med det falske valpebildet.

Som svar slettet Stellar Man bildet og sa, "Memeet mitt har gått for langt."

Velg din egen virkelighet

I seg selv beviser eller motbeviser ikke det falske valpebildet ektheten til det forkullede babybildet. Men det falske valpeskuddet viser hvor lett folk vil tro på alt som ser ut til å bekrefte deres eksisterende tro og skjevheter.

Falske fotografier i en alder av AI er enklere enn noen gang før, og skaper et miljø der folk ikke lenger kan stole på øynene sine.

Det burde være der troverdige medier går inn for å fylle tomrommet, og gjør skikkelig og nødvendig etterforskningsarbeid. Det faktum at noen medier tilbyr valpebildet som bevis på AI-falsk er åpenbart bekymringsfullt. Gitt at noen deler av pressen tydeligvis ikke er i stand til selv de mest grunnleggende journalistiske kontroller og til å følge bevisene hvor enn de måtte føre, hvordan forventes det at allmennheten skal gjøre det bedre?

Tidstempel:

Mer fra MetaNews