Hamas grymheter är AI-genererade, gör anspråk på flera källor

Hamas grymheter är AI-genererade, gör anspråk på flera källor

Källnod: 2937838

Enligt flera källor är en bild av en bränd judisk bebis dödad av Hamas ett verk av AI-generativ programvara.

Men en undersökning av MetaNews tyder på att det är "beviset" på fejk som är falskt. Frågan är ett mikrokosmos av ett mycket djupare problem, eftersom vanliga människor försöker skilja verklighet från simulering och sanning från lögner.

En post-truth värld

Fruktansvärda bilder av ett förkolnat spädbarns lik är ett verk av generativ AI. Detta är enligt flera butiker, inklusive Times Now News och Försvarspolitik Asien. Influensaren Jackson Hinkle, mest känd för sin pro-ryska propaganda, förstärker samma budskap genom sina sociala mediekanaler.

Tvisten började den Torsdag när den judiske konservative Ben Shapiro delade det brända barnets fotografi på X och citerade det som bevis på Hamas brutalitet. En tydligt känslosam Shapiro höll inte tillbaka i sitt fördömande.

"Du ville ha bildbevis på döda judiska barn?" frågade Shapiro. ”Här är den, ni patetiska judehatare. Israel kommer att minimera civila offer. Men Israel kommer inte att tillåta de mänskliga skiten som gjorde detta att leva. Varje uns blod som spills i Gaza är på Hamas.”

Det tog dock bara en kort tid innan frågor om bildernas giltighet dök upp.

Politisk propaganda

Ett barns död är alltid mycket känslomässigt. Detta gör ämnet moget för politisk propaganda.

Om den är äkta avslöjar bilden av ett förkolnat barns lik den extrema brutaliteten hos Hamas-terrorister som invaderade Israel den 7 oktober.

Vissa kanaler och kritiker på sociala medier menar att bilden är ett hopkok för att skapa falsk sympati för Israel och fördömande för Hamas. Deras påstående vilar på två huvudsakliga bevispunkter. För det första sa ett AI-verktyg som heter "AI or Not" att bilden var AI-genererad. För det andra var det ursprungliga, riktiga fotot inte av en förkolnad bebis utan av en valp.

På det första påståendet verkar "AI eller inte" inte vara ett helt tillförlitligt verktyg. Efter att ha testat samma bild flera gånger ändrar plattformen uppfattning om fotografiets giltighet. Med tanke på dess ständigt skiftande schizofrena svar, erbjuder "AI eller inte" absolut ingenting av värde.

Den andra punkten, angående valpfotografiet, kan lättare fastställas. Källan till denna bild är X användare Stellar Man. Stellar Man skapade valpbilden på "5 sekunder" så att de kunde visa hur lätt det är att fejka fotografiska bilder.

Demonstrationen fungerade alldeles för bra. Vissa användare anger nu den falska valpbilden som originalet för att "bevisa" att babybilden är falsk, och vissa medier kör med den falska valpbilden.

Som svar tog Stellar Man bort fotot och sade "Mitt meme har gått för långt."

Välj din egen verklighet

I sig bevisar eller motbevisar den falska valpbilden inte äktheten av det förkolnade babyfotot. Men det falska valpskottet visar hur lätt folk kommer att tro på allt som verkar bekräfta deras befintliga övertygelser och fördomar.

Fejkade fotografier i en ålder av AI är enklare än någonsin tidigare, och skapar en miljö där människor inte längre kan lita på sina ögon.

Det borde vara där trovärdiga medier träder in för att fylla tomrummet och gör ordentligt och nödvändigt utredningsarbete. Det faktum att vissa medier erbjuder valpfotot som bevis på AI-falsk är uppenbarligen oroande. Med tanke på att vissa delar av pressen är helt klart oförmögna att ens de mest grundläggande journalistiska kontrollerna och följa bevisen vart de än kan leda, hur förväntas allmänheten göra det bättre?

Tidsstämpel:

Mer från MetaNews