Hamas-grusomheder er AI-genereret, hævder flere kilder

Hamas-grusomheder er AI-genereret, hævder flere kilder

Kildeknude: 2937838

Ifølge flere kilder er et billede af en brændt jødisk baby dræbt af Hamas et værk af AI-generativ software.

Men en undersøgelse foretaget af MetaNews tyder på, at det er 'beviset' for falskneri, der er falsk. Spørgsmålet er et mikrokosmos af et langt dybere problem, da almindelige mennesker forsøger at skelne virkelighed fra simulation og sandhed fra løgn.

En post-truth verden

Forfærdelige billeder af et forkullet spædbarns lig er værket af generativ AI. Dette er ifølge flere forretninger, herunder Times Now Nyheder , Forsvarspolitik Asien. Influencer Jackson Hinkle, bedst kendt for sin pro-russiske propaganda, forstærker det samme budskab gennem sine sociale mediekanaler.

Striden begyndte d Torsdag da den jødiske konservative Ben Shapiro delte det brændte babyfotografi på X og citerede det som bevis på Hamas brutalitet. En tydeligt følelsesladet Shapiro holdt sig ikke tilbage i sin fordømmelse.

"Du ville have billedbevis på døde jødiske babyer?" spurgte Shapiro. ”Her er det, I patetiske jødehadere. Israel vil minimere civile tab. Men Israel vil ikke tillade de stykker menneskelig lort, der gjorde dette, at leve. Hvert gram blod, der er spildt i Gaza, er på Hamas."

Der gik dog kun kort tid, før der dukkede spørgsmål op om billedernes gyldighed.

Politisk propaganda

Et barns død er altid meget følelsesladet. Dette gør emnet modent til politisk propaganda.

Hvis det er ægte, afslører billedet af et forkullet barns lig den ekstreme brutalitet hos Hamas-terrorister, der invaderede Israel den 7. oktober.

Nogle medier og kritikere på sociale medier antyder, at billedet er et påfund for at skabe falsk sympati for Israel og fordømmelse for Hamas. Deres påstand hviler på to hovedpunkter. For det første sagde et AI-værktøj kaldet "AI or Not", at billedet var AI-genereret. For det andet var det originale, rigtige billede ikke af en forkullet baby, men af ​​en hvalp.

På den første påstand ser "AI or Not" ikke ud til at være et helt pålideligt værktøj. Efter at have testet det samme billede flere gange, ændrer platformen mening med hensyn til fotografiets gyldighed. I betragtning af dets stadigt skiftende skizofrene svar, tilbyder "AI eller ej" absolut intet af værdi.

Det andet punkt, vedrørende hvalpefotografiet, kan lettere bestemmes. Kilden til dette billede er X-bruger Stjernemand. Stellar Man skabte hvalpebilledet på "5 sekunder", så de kunne demonstrere, hvor nemt det er at forfalske fotografiske billeder.

Demonstrationen fungerede alt for godt. Nogle brugere videregiver nu det falske hvalpebillede som det originale for at "bevise", at babybilledet er falsk, og nogle medier kører med det falske hvalpebillede.

Som svar slettede Stellar Man billedet og nævnte, "Min meme er gået for vidt."

Vælg din egen virkelighed

I sig selv beviser eller modbeviser det falske hvalpebillede ikke ægtheden af ​​det forkullede babybillede. Men det falske hvalpeskud demonstrerer, hvor let folk vil tro på alt, der ser ud til at bekræfte deres eksisterende overbevisninger og fordomme.

Falske fotografier i en alder af AI er nemmere end nogensinde før, at skabe et miljø, hvor folk ikke længere kan stole på deres øjne.

Det burde være her, troværdige medier træder til for at udfylde tomrummet og udfører ordentligt og nødvendigt efterforskningsarbejde. Det faktum, at nogle medier tilbyder hvalpebilledet som bevis på AI-falsk er naturligvis bekymrende. I betragtning af, at nogle dele af pressen tydeligvis ikke er i stand til selv den mest basale journalistiske kontrol og til at følge beviserne, hvor end de måtte føre, hvordan forventes den brede offentlighed at gøre det bedre?

Tidsstempel:

Mere fra MetaNews