हमास के अत्याचार एआई-जनित हैं, कई स्रोतों का दावा है

हमास के अत्याचार एआई-जनित हैं, कई स्रोतों का दावा है

स्रोत नोड: 2937838

कई स्रोतों के अनुसार, हमास द्वारा मारे गए एक जले हुए यहूदी बच्चे की तस्वीर एआई-जेनरेटिव सॉफ्टवेयर का काम है।

लेकिन मेटान्यूज की जांच से पता चलता है कि यह फर्जीवाड़े का 'प्रमाण' है जो नकली है। यह मुद्दा कहीं अधिक गहरी समस्या का एक सूक्ष्म रूप है, क्योंकि आम लोग वास्तविकता को अनुकरण से और सच को झूठ से अलग करने का प्रयास करते हैं।

सत्य के बाद की दुनिया

एक जले हुए शिशु के शव की भयावह छवियां जेनरेटिव एआई का काम हैं। यह सहित कई आउटलेट्स के अनुसार है टाइम्स नाउ न्यूज़ और रक्षा राजनीति एशिया. प्रभावशाली जैक्सन हिंकल, जो अपने रूस समर्थक प्रचार के लिए सबसे ज्यादा जाने जाते हैं, अपने सोशल मीडिया चैनलों के माध्यम से उसी संदेश को फैला रहे हैं।

विवाद शुरू हो गया गुरुवार जब यहूदी रूढ़िवादी बेन शापिरो ने हमास की क्रूरता का सबूत बताते हुए जले हुए बच्चे की तस्वीर एक्स पर साझा की। स्पष्ट रूप से भावुक शापिरो अपनी निंदा करने से पीछे नहीं हटे।

"आप मृत यहूदी शिशुओं का सचित्र प्रमाण चाहते थे?" शापिरो से पूछा. “यहाँ यह है, तुम दयनीय यहूदी-नफरत करने वालों। इजराइल नागरिक हताहतों को कम करेगा। लेकिन इज़राइल मानव गंदगी के उन टुकड़ों को जीवित नहीं रहने देगा जिन्होंने ऐसा किया। गाजा में बहाए गए खून का हर औंस हमास पर है।”

हालाँकि, छवियों की वैधता के बारे में प्रश्न उभरने में कुछ ही समय लगा था।

राजनीतिक प्रचार

एक बच्चे की मृत्यु हमेशा अत्यधिक भावनात्मक होती है। यह विषय को राजनीतिक प्रचार के लिए उपयुक्त बनाता है।

यदि वास्तविक है, तो एक जले हुए बच्चे की लाश की छवि हमास आतंकवादियों की अत्यधिक क्रूरता को उजागर करती है जिन्होंने 7 अक्टूबर को इज़राइल पर आक्रमण किया था।

सोशल मीडिया पर कुछ आउटलेट्स और आलोचकों का सुझाव है कि यह छवि इज़राइल के लिए झूठी सहानुभूति और हमास के लिए निंदा पैदा करने की मनगढ़ंत कहानी है। उनका दावा साक्ष्य के दो मुख्य बिंदुओं पर आधारित है। सबसे पहले, "एआई ऑर नॉट" नामक एक एआई टूल ने कहा कि फोटो एआई-जनरेटेड था। दूसरे, असली, असली तस्वीर किसी जले हुए बच्चे की नहीं बल्कि एक पिल्ले की थी।

पहले दावे पर, "एआई या नॉट" पूरी तरह से विश्वसनीय उपकरण प्रतीत नहीं होता है। एक ही छवि का कई बार परीक्षण करने के बाद, प्लेटफ़ॉर्म तस्वीर की वैधता के बारे में अपना विचार बदल देता है। इसकी लगातार बदलती सिज़ोफ्रेनिक प्रतिक्रियाओं को देखते हुए, "एआई या नॉट" का कोई मूल्य नहीं है।

पिल्ला की तस्वीर के संबंध में दूसरा बिंदु, अधिक आसानी से निर्धारित किया जा सकता है। इस छवि का स्रोत एक्स उपयोगकर्ता है तारकीय आदमी. स्टेलर मैन ने "5 सेकंड" में पिल्ला की छवि बनाई ताकि वे दिखा सकें कि नकली फोटोग्राफिक इमेजरी बनाना कितना आसान है।

प्रदर्शन ने बहुत अच्छा काम किया. कुछ उपयोगकर्ता अब बच्चे की छवि को नकली "साबित" करने के लिए नकली पिल्ले की छवि को असली बता रहे हैं, और कुछ मीडिया आउटलेट नकली पिल्ले की छवि के साथ चल रहे हैं।

जवाब में, स्टेलर मैन ने फोटो हटा दी और कहा, "मेरा मेम बहुत आगे निकल गया है।"

अपनी वास्तविकता स्वयं चुनें

अपने आप में, नकली पिल्ला छवि जले हुए बच्चे की तस्वीर की प्रामाणिकता को साबित या अस्वीकार नहीं करती है। लेकिन नकली पिल्ला शॉट यह प्रदर्शित करता है कि लोग कितनी आसानी से किसी भी चीज़ पर विश्वास कर लेंगे जो उनकी मौजूदा मान्यताओं और पूर्वाग्रहों की पुष्टि करती प्रतीत होती है।

के युग में नकली तस्वीरें AI पहले से कहीं अधिक आसान है, एक ऐसा माहौल बनाना जहां लोग अब अपनी आंखों पर भरोसा नहीं कर सकें।

यह वह जगह होनी चाहिए जहां विश्वसनीय मीडिया आउटलेट उचित और आवश्यक खोजी कार्य करते हुए शून्य को भरने के लिए आगे आएं। तथ्य यह है कि कुछ मीडिया आउटलेट एआई फेकरी के सबूत के रूप में पिल्ला की तस्वीर पेश कर रहे हैं, यह स्पष्ट रूप से चिंताजनक है। यह देखते हुए कि प्रेस के कुछ वर्ग स्पष्ट रूप से सबसे बुनियादी पत्रकारिता जांच और सबूतों का पालन करने में भी असमर्थ हैं, जहां भी यह ले जा सकता है, आम जनता से बेहतर प्रदर्शन की उम्मीद कैसे की जा सकती है?

समय टिकट:

से अधिक मेटान्यूज