Las atrocidades de Hamás son generadas por IA, afirman múltiples fuentes

Las atrocidades de Hamás son generadas por IA, afirman múltiples fuentes

Nodo de origen: 2937838

Según múltiples fuentes, la imagen de un bebé judío quemado asesinado por Hamás es obra de un software generativo de inteligencia artificial.

Pero una investigación de MetaNews sugiere que lo que es falso es la "prueba" de la falsificación. La cuestión es un microcosmos de un problema mucho más profundo, en el que la gente corriente intenta distinguir la realidad de la simulación y la verdad de las mentiras.

Un mundo de posverdad

Las horribles imágenes del cadáver de un bebé carbonizado son obra de la IA generativa. Esto es según varios medios, incluido Veces ahora noticias y Política de defensa Asia. El influencer Jackson Hinkle, mejor conocido por su propaganda pro-Rusia, está amplificando el mismo mensaje a través de sus canales de redes sociales.

La disputa comenzó el Jueves cuando el conservador judío Ben Shapiro compartió la fotografía del bebé quemado en X, citándola como prueba de la brutalidad de Hamás. Un Shapiro claramente emocionado no se contuvo en su condena.

“¿Querías pruebas pictóricas de bebés judíos muertos?” preguntó Shapiro. “Aquí está, patéticos que odian a los judíos. Israel minimizará las bajas civiles. Pero Israel no permitirá que vivan los pedazos de mierda humana que hicieron esto. Cada gramo de sangre derramada en Gaza es contra Hamás”.

Sin embargo, sólo pasó poco tiempo antes de que surgieran dudas sobre la validez de las imágenes.

Propaganda política

La muerte de un niño siempre es muy emotiva. Esto hace que el tema esté maduro para la propaganda política.

Si es genuina, la imagen del cadáver de un niño carbonizado expone la extrema brutalidad de los terroristas de Hamás que invadieron Israel el 7 de octubre.

Algunos medios y críticos en las redes sociales sugieren que la imagen es una invención para crear una falsa simpatía por Israel y una condena a Hamás. Su afirmación se basa en dos puntos principales de evidencia. En primer lugar, una herramienta de IA llamada “AI or Not” decía que la foto fue generada por IA. En segundo lugar, la foto original y real no era de un bebé carbonizado sino de un cachorro.

Según la primera afirmación, “IA o no” no parece ser una herramienta totalmente confiable. Después de probar la misma imagen varias veces, la plataforma cambia de opinión sobre la validez de la fotografía. Dadas sus respuestas esquizofrénicas en constante cambio, “AI or Not” no ofrece absolutamente nada de valor.

El segundo punto, relativo a la fotografía del cachorro, se puede determinar más fácilmente. La fuente de esta imagen es el usuario X. Hombre estelar. Stellar Man creó la imagen del cachorro en “5 segundos” para poder demostrar lo fácil que es falsificar imágenes fotográficas.

La manifestación funcionó demasiado bien. Algunos usuarios ahora están haciendo pasar la imagen falsa del cachorro como la original para "probar" que la imagen del bebé es falsa, y algunos medios de comunicación están publicando la imagen falsa del cachorro.

En respuesta, Stellar Man borró la foto y dijo: "Mi meme ha ido demasiado lejos".

Elige tu propia realidad

En sí misma, la imagen falsa del cachorro no prueba ni refuta la autenticidad de la foto del bebé carbonizado. Pero la foto falsa del cachorro demuestra con qué facilidad la gente cree en cualquier cosa que parezca confirmar sus creencias y prejuicios existentes.

Falsificar fotografías en la era de AI Es más fácil que nunca, creando un entorno en el que las personas ya no pueden confiar en sus ojos.

Ahí deberían intervenir los medios de comunicación creíbles para llenar el vacío, realizando el trabajo de investigación adecuado y necesario. El hecho de que algunos medios de comunicación estén ofreciendo la foto del cachorro como prueba de una falsificación de la IA es obviamente preocupante. Dado que algunos sectores de la prensa son claramente incapaces incluso de realizar los controles periodísticos más básicos y de seguir la evidencia adondequiera que ésta pueda llevar, ¿cómo se espera que el público en general lo haga mejor?

Sello de tiempo:

Mas de MetaNoticias