ऊब गए एप्स डेवलपर्स यूएस-यूके मिलिट्री ट्रेनिंग सिस्टम को छोड़ दें

ऊब गए एप्स डेवलपर्स यूएस-यूके मिलिट्री ट्रेनिंग सिस्टम को छोड़ दें

स्रोत नोड: 1772253

क्या आपने कभी फेसबुक, इंस्टाग्राम, टिक टोक और अन्य जैसे सोशल मीडिया प्लेटफॉर्म पर अपनी तस्वीरें पोस्ट की हैं? यदि हां, तो शायद उन पोस्टिंग पर पुनर्विचार करने का समय आ गया है।

ऐसा इसलिए है क्योंकि एक नई एआई इमेज-जेनरेशन तकनीक अब उपयोगकर्ताओं को आपके फोटो और वीडियो फ्रेम का एक गुच्छा सहेजने की अनुमति देती है और फिर इसे आपकी तस्वीर के "यथार्थवादी" फेक उत्पन्न करने के लिए प्रशिक्षित करती है, जो आपको सर्वथा शर्मनाक स्थिति, अवैध और कभी-कभी समझौता करने वाली स्थिति में दर्शाती है।

खैर, हर किसी को खतरा नहीं है लेकिन खतरा वास्तविक है।

हालांकि तस्वीरों के लिए हमेशा प्रवण रहा है जोड़ - तोड़ और डार्करूम के युग से मिथ्याकरण जहां फिल्मों को कैंची से हेरफेर किया जाता था और आज पिक्सेल की फोटोशॉपिंग के माध्यम से चिपकाया जाता था।

हालांकि यह एक कठिन काम था और उन दिनों में कुछ विशेषज्ञ कौशल की आवश्यकता थी, इन दिनों फोटो-यथार्थवादी नकली बनाना बहुत आसान बना दिया गया है।

पहले एआई मॉडल को सॉफ्टवेयर के माध्यम से 2डी या 3डी मॉडल से फोटो में किसी की छवि को प्रस्तुत या संश्लेषित करना सीखना चाहिए। एक बार जब छवि सफलतापूर्वक प्रदान की जाती है, तो छवि स्वाभाविक रूप से तकनीक के लिए एक खिलौना बन जाती है और इसमें अनंत मात्रा में छवियां उत्पन्न करने की क्षमता होती है।

जब कोई एआई मॉडल को साझा करना चुनता है, तो अन्य लोग भी इसमें शामिल हो सकते हैं और उस व्यक्ति की छवियां भी बनाना शुरू कर सकते हैं।

एआई टेक जो जीवन को बर्बाद करने वाली गहरी नकली छवियां बनाता है

वास्तविक या एआई-जनित?

सोशल मीडिया केस स्टडीज

एक स्वयंसेवक द्वारा "बहादुर" के रूप में वर्णित Ars Technica, एक तकनीकी प्रकाशन, जिसने शुरू में कंपनी को नकली बनाने के लिए अपनी छवियों का उपयोग करने की अनुमति दी थी, का हृदय परिवर्तन हुआ था।

ऐसा इसलिए है क्योंकि कुछ ही समय में, एआई मॉडल से प्रदान की गई छवियों के परिणाम स्वयंसेवक के लिए प्रतिष्ठा के लिहाज से बहुत विश्वसनीय और बहुत हानिकारक थे।

उच्च प्रतिष्ठित जोखिम को देखते हुए, एक एआई-जनित काल्पनिक व्यक्ति, जॉन, एक स्वाभाविक पसंद बन गया।

जॉन, काल्पनिक आदमी, एक प्राथमिक विद्यालय का शिक्षक था, जिसने कई अन्य लोगों की तरह काम पर, घर पर मस्ती करते हुए और ऐसे ही किसी कार्यक्रम में अपनी तस्वीरें फेसबुक पर पोस्ट की हैं।

"जॉन" की काफी हद तक निरापद छवियों का प्रतिपादन किया गया और फिर एआई को प्रशिक्षित करने के लिए उसे और अधिक समझौता करने वाली स्थिति में रखा गया।

केवल सात छवियों से, एआई को ऐसी छवियां उत्पन्न करने के लिए प्रशिक्षित किया जा सकता है जो ऐसा प्रतीत होता है जैसे कि जॉन एक दोहरा और गुप्त जीवन जीता है। उदाहरण के लिए, वह किसी ऐसे व्यक्ति के रूप में दिखाई दिया, जिसे अपनी कक्षा में सेल्फी लेने के लिए नग्न अवस्था में पोज़ देना अच्छा लगता था।

रात में, वह एक विदूषक की तरह दिखने वाले सलाखों में चला गया।

सप्ताहांत में, वह एक चरमपंथी अर्धसैनिक समूह का हिस्सा था।

एआई ने यह भी धारणा बनाई कि उसने अवैध ड्रग चार्ज के लिए जेल में समय बिताया था लेकिन अपने नियोक्ता से इस तथ्य को छुपाया था।

एक अन्य तस्वीर में, जॉन, जो शादीशुदा है, एक कार्यालय में एक नग्न महिला के साथ पोज देते हुए दिखाई दे रहा है, जो उसकी पत्नी नहीं है।

एआई इमेज जनरेटर का उपयोग करना कहा जाता है स्थिर प्रसार (संस्करण 1.5) और ड्रीमबूथ नामक एक तकनीक, आर्स टेक्निका एआई को प्रशिक्षित करने में सक्षम थी कि किसी भी शैली में जॉन की तस्वीरें कैसे उत्पन्न करें। हालांकि जॉन एक काल्पनिक रचना थी, कोई भी सैद्धांतिक रूप से पांच या अधिक छवियों से समान परिणाम प्राप्त कर सकता था। इन छवियों को सोशल मीडिया खातों से खींचा जा सकता है या वीडियो से स्थिर फ्रेम के रूप में लिया जा सकता है।

जॉन की छवियों को बनाने के लिए एआई को सिखाने की प्रक्रिया में लगभग एक घंटे का समय लगा और Google क्लाउड कंप्यूटिंग सेवा के लिए नि: शुल्क धन्यवाद।

प्रकाशन ने कहा कि जब प्रशिक्षण पूरा हो गया, तो छवियों को बनाने में कई घंटे लग गए। और ऐसा इसलिए नहीं था क्योंकि छवियों को बनाना कुछ धीमी प्रक्रिया थी, बल्कि इसलिए कि कई "अपूर्ण चित्रों" के माध्यम से कंघी करने की आवश्यकता थी और सर्वोत्तम छवियों को खोजने के लिए "ट्रायल-एंड-एरर" प्रकार का उपयोग करने की आवश्यकता थी।

अध्ययन में पाया गया कि फ़ोटोशॉप में खरोंच से "जॉन" की नकली यथार्थवादी तस्वीर बनाने की कोशिश की तुलना में यह उल्लेखनीय रूप से बहुत आसान था।

प्रौद्योगिकी के लिए धन्यवाद, जॉन जैसे लोगों को यह दिखाने के लिए बनाया जा सकता है कि उन्होंने अवैध रूप से काम किया है, या हाउसब्रेकिंग, अवैध ड्रग्स का उपयोग करने और एक छात्र के साथ नग्न स्नान करने जैसे अनैतिक कार्य किए हैं। यदि एआई मॉडल को पोर्नोग्राफी के लिए अनुकूलित किया जाता है, तो जॉन जैसे लोग लगभग रातोंरात पोर्न स्टार बन सकते हैं।

कोई भी जॉन की छवियां बना सकता है जो प्रतीत होता है कि निरापद चीजें कर रही हैं जो विनाशकारी हो सकती हैं यदि उसे एक बार में आत्मसात करते हुए दिखाया गया है जब उसने संयम की प्रतिज्ञा की है।

यह वहाँ समाप्त नहीं होता है।

एक व्यक्ति एक मध्यकालीन नाइट या एक अंतरिक्ष यात्री के रूप में हल्के पल में भी दिखाई दे सकता है। कुछ मामलों में, लोग या तो जवान और बूढ़े दोनों हो सकते हैं या कपड़े भी पहन सकते हैं।

हालाँकि, प्रदान किया गया छवियों परिपूर्ण से बहुत दूर हैं। करीब से देखने पर उन्हें नकली के रूप में पहचाना जा सकता है।

नकारात्मक पक्ष यह है कि इन छवियों को बनाने वाली तकनीक को महत्वपूर्ण रूप से उन्नत किया गया है और एक संश्लेषित तस्वीर और वास्तविक के बीच अंतर करना असंभव बना सकता है।

फिर भी उनकी खामियों के बावजूद, नकली जॉन के बारे में संदेह की छाया डाल सकते हैं और संभावित रूप से उनकी प्रतिष्ठा को बर्बाद कर सकते हैं।

हाल ही में, बहुत से लोगों ने इसी तकनीक (वास्तविक लोगों के साथ) का उपयोग स्वयं के विचित्र और कलात्मक प्रोफ़ाइल फ़ोटो बनाने के लिए किया है।

साथ ही वाणिज्यिक सेवाएं और ऐप जैसे लेंसा कुकुरमुत्ता है कि प्रशिक्षण संभाल।

यह कैसे काम करता है?

जॉन पर काम उल्लेखनीय लग सकता है अगर कोई प्रवृत्तियों का पालन नहीं कर रहा है। आज, सॉफ्टवेयर इंजीनियर जानते हैं कि किसी भी चीज की नई फोटो-यथार्थवादी छवियां कैसे बनाई जा सकती हैं जिसकी कोई कल्पना कर सकता है।

तस्वीरों के अलावा, एआई ने विवादास्पद रूप से लोगों को नई कलाकृति बनाने की अनुमति दी है जो मौजूदा कलाकारों के काम को उनकी अनुमति के बिना क्लोन करती है।

नैतिक चिंताओं के कारण निलंबित

अमेरिकी प्रौद्योगिकी वकील मिच जैक्सन ने बाजार में गहरी नकली तकनीक के प्रसार पर चिंता व्यक्त की और कहा कि वह 2023 के अधिकांश समय में प्रौद्योगिकी के कानूनी प्रभावों का अध्ययन करेंगे।

"अधिकांश उपभोक्ताओं के लिए असली और नकली के बीच अंतर करना अंततः असंभव हो जाएगा।

Adobe के पास पहले से ही Adobe VoCo नामक ऑडियो तकनीक है जो किसी को भी बिल्कुल किसी और की तरह ध्वनि करने की अनुमति देती है। Adobe VoCo पर काम नैतिक चिंताओं के कारण निलंबित कर दिया गया था, लेकिन दर्जनों अन्य कंपनियां आज कुछ विकल्पों की पेशकश के साथ प्रौद्योगिकी को बेहतर बना रही हैं। अपने लिए एक नज़र डालें, या सुनें," मिचम कहा.

वे कहते हैं कि गहरे नकली वीडियो के चित्र और वीडियो संस्करण बेहतर और बेहतर होते जा रहे हैं।

"कभी-कभी, नकली वीडियो को वास्तविक से अलग करना असंभव है," वह कहते हैं।

स्टेबल डिफ्यूजन डीप-लर्निंग इमेज सिंथेसिस मॉडल का उपयोग करता है जो टेक्स्ट डिस्क्रिप्शन से नई इमेज बना सकता है और विंडोज या लिनक्स पीसी पर, मैक पर या किराए के कंप्यूटर हार्डवेयर पर क्लाउड में चल सकता है।

स्थिर प्रसार के तंत्रिका नेटवर्क ने शब्दों को जोड़ने और छवियों में पिक्सेल की स्थिति के बीच सामान्य सांख्यिकीय संघ में गहन सीखने की मदद से महारत हासिल की है।

इस वजह से, स्थिर प्रसार को एक संकेत दिया जा सकता है, जैसे "टॉम हैंक्स इन ए क्लासरूम," और यह उपयोगकर्ता को कक्षा में टॉम हैंक्स की एक नई छवि देगा।

टॉम हैंक के मामले में, यह पार्क में टहलना है क्योंकि उनकी सैकड़ों तस्वीरें पहले से ही स्थिर प्रसार को प्रशिक्षित करने के लिए उपयोग किए जाने वाले डेटा सेट में हैं। लेकिन जॉन जैसे लोगों की इमेज बनाने के लिए एआई को थोड़ी मदद की जरूरत होगी।

यहीं से ड्रीमबूथ किक करता है।

ड्रीमबूथ, जिसे Google शोधकर्ताओं द्वारा 30 अगस्त को लॉन्च किया गया था, "फाइन ट्यूनिंग" नामक एक प्रक्रिया के माध्यम से स्थिर प्रसार को प्रशिक्षित करने के लिए एक विशेष तकनीक का उपयोग करता है।

सबसे पहले, ड्रीमबूथ स्थिर प्रसार से जुड़ा नहीं था, और दुरुपयोग के डर के बीच Google ने अपना स्रोत कोड उपलब्ध नहीं कराया था।

कुछ ही समय में, किसी ने स्टेबल डिफ्यूजन के साथ काम करने के लिए ड्रीमबूथ तकनीक को अनुकूलित करने का एक तरीका ढूंढ लिया और कोड को एक ओपन सोर्स प्रोजेक्ट के रूप में स्वतंत्र रूप से जारी कर दिया, जिससे ड्रीमबूथ एआई कलाकारों के लिए स्टेबल डिफ्यूजन नई कलात्मक शैलियों को सिखाने का एक बहुत लोकप्रिय तरीका बन गया।

विश्वव्यापी प्रभाव

दुनिया भर में अनुमानित 4 बिलियन लोग सोशल मीडिया का उपयोग करते हैं। चूंकि हम में से कई लोगों ने अपनी मुट्ठी भर से अधिक तस्वीरें अपलोड की हैं, इसलिए हम इस तरह के हमलों की चपेट में आ सकते हैं।

हालाँकि छवि-संश्लेषण तकनीक के प्रभाव को एक पुरुष के दृष्टिकोण से चित्रित किया गया है, लेकिन महिलाओं को भी इसका खामियाजा भुगतना पड़ता है।

जब किसी महिला के चेहरे या शरीर का प्रतिपादन किया जाता है, तो उसकी पहचान शरारतपूर्ण ढंग से अश्लील चित्रों में डाली जा सकती है।

एआई प्रशिक्षण में उपयोग किए गए डेटा सेटों में बड़ी संख्या में यौन छवियों के कारण यह संभव हुआ है।

दूसरे शब्दों में, इसका मतलब यह है कि एआई उन अश्लील छवियों को उत्पन्न करने के तरीके से बहुत परिचित है।

इन नैतिक मुद्दों में से कुछ को संबोधित करने के लिए, स्थिरता एआई को अपने हालिया 2.0 रिलीज के लिए अपने प्रशिक्षण डेटा सेट से एनएसएफडब्ल्यू सामग्री को हटाने के लिए मजबूर होना पड़ा।

हालांकि इसका सॉफ्टवेयर लाइसेंस लोगों को उनकी अनुमति के बिना लोगों की तस्वीरें बनाने के लिए एआई जनरेटर का उपयोग करने से रोकता है, लेकिन प्रवर्तन के लिए बहुत कम या कोई संभावना नहीं है।

बच्चे संश्लेषित छवियों से भी सुरक्षित नहीं हैं और इस तकनीक का उपयोग करके उन मामलों में भी धमकाया जा सकता है जहां चित्रों में हेरफेर नहीं किया जाता है।

एआई टेक जो जीवन को बर्बाद करने वाली गहरी नकली छवियां बनाता है

मनुष्यों द्वारा बनाया गया?

क्या हम इसके बारे में कुछ कर सकते हैं?

करने के लिए चीजों की सूची एक व्यक्ति से दूसरे व्यक्ति में भिन्न होती है। छवियों को एक साथ ऑफ़लाइन निकालने का कठोर कदम उठाना एक तरीका है।

जबकि यह आम लोगों के लिए काम कर सकता है, यह मशहूर हस्तियों और अन्य सार्वजनिक हस्तियों के लिए कोई समाधान नहीं है।

हालांकि, भविष्य में लोग तकनीकी माध्यमों से खुद को फोटो के दुरुपयोग से बचाने में सक्षम हो सकते हैं। भविष्य के एआई छवि जनरेटर को अपने आउटपुट में अदृश्य वॉटरमार्क एम्बेड करने के लिए कानूनी रूप से मजबूर किया जा सकता है।

इस तरह, उनके वॉटरमार्क को बाद में पढ़ा जा सकता है और लोगों के लिए यह जानना आसान हो जाता है कि वे नकली हैं।

"व्यापक विनियमन आवश्यक है। हेरफेर या नकली सामग्री के किसी भी टुकड़े को फिल्म (जी, पीजी, आर, और एक्स) की तरह एक पत्र या चेतावनी को प्रमुखता से प्रदर्शित करने की आवश्यकता होनी चाहिए। शायद डिजिटली आल्टर्ड या डीए जैसा कुछ," मिचम कहते हैं।

स्थिरता एआई ने इस वर्ष एक ओपन सोर्स प्रोजेक्ट के रूप में अपना स्थिर प्रसार लॉन्च किया।

इसके श्रेय के लिए, स्थिर प्रसार पहले से ही डिफ़ॉल्ट रूप से एम्बेडेड वॉटरमार्क का उपयोग करता है, लेकिन इसके ओपन सोर्स संस्करण तक पहुंचने वाले लोग सॉफ्टवेयर के वॉटरमार्किंग घटक को अक्षम करके या इसे पूरी तरह से हटाकर इसके चारों ओर जाते हैं।

कम करने के लिए एमआईटी

हालांकि यह विशुद्ध रूप से अटकलें हैं, व्यक्तिगत तस्वीरों में स्वेच्छा से जोड़ा गया वॉटरमार्क ड्रीमबूथ प्रशिक्षण प्रक्रिया को बाधित करने में सक्षम हो सकता है। एमआईटी शोधकर्ताओं के एक समूह ने कहा फोटो गार्ड, एक प्रतिकूल प्रक्रिया जिसका उद्देश्य एआई को अदृश्य वॉटरमार्किंग विधि के उपयोग के माध्यम से मामूली संशोधनों के माध्यम से मौजूदा फोटो को संश्लेषित करने से बचाना और सुरक्षित करना है। हालांकि, यह केवल एआई संपादन तक ही सीमित है (जिसे अक्सर "इनपेंटिंग" कहा जाता है) मामलों का उपयोग करते हैं और इसमें प्रशिक्षण या छवियों का निर्माण शामिल है।

"एआई लेखन और पेंटिंग पर कब्जा कर रहा है! डीप फेक वीडियो को बर्बाद कर देंगे!
अच्छा है.
इसका मतलब है कि लाइव प्रदर्शन और भी अधिक मूल्यवान हो जाता है। ट्रेड शो फलेंगे। मनुष्य मनुष्य के साथ व्यापार करना चाहता है।
मीटस्पेस अभी भी बेस्टस्पेस है" जोनाथन पिचार्ड कहते हैं।

हाल ही में, लिखने वाली एआई तकनीक का प्रसार हुआ है कविताएं, तुकबंदी और गाने। और कुछ जो हैं माहिर खेल.

आलोचकों ने तकनीकी प्रगति को नकारात्मक रूप से लिया है और मानते हैं कि एआई मानव नौकरियों पर कब्जा कर रहे हैं।

/मेटान्यूज.

समय टिकट:

से अधिक मेटान्यूज