بورڈ ایپس ڈویلپرز نے US-UK ملٹری ٹریننگ سسٹم کو ترک کر دیا۔

بورڈ ایپس ڈویلپرز نے US-UK ملٹری ٹریننگ سسٹم کو ترک کر دیا۔

ماخذ نوڈ: 1772253

کیا آپ نے کبھی اپنی تصاویر سوشل میڈیا پلیٹ فارمز جیسے فیس بک، انسٹاگرام، ٹک ٹاک اور دیگر پر پوسٹ کی ہیں؟ اگر ایسا ہے تو، یہ ان پوسٹنگ پر نظر ثانی کرنے کا وقت ہوسکتا ہے۔

اس کی وجہ یہ ہے کہ ایک نئی AI امیج جنریشن ٹیکنالوجی اب صارفین کو آپ کی تصاویر اور ویڈیو فریموں کا ایک گروپ محفوظ کرنے کی اجازت دیتی ہے اور پھر اسے آپ کی تصویر کے "حقیقت پسندانہ" جعلی بنانے کی تربیت دیتی ہے جس میں آپ کو سراسر شرمناک پوزیشنوں، غیر قانونی اور بعض اوقات سمجھوتہ کرنے والی پوزیشنوں میں دکھایا جاتا ہے۔

ٹھیک ہے، ہر کسی کو خطرہ نہیں ہے لیکن خطرہ حقیقی ہے۔

اگرچہ تصاویر ہمیشہ سے شکار رہی ہیں۔ ہیرا پھیری اور ڈارک رومز کے دور سے جعل سازی جہاں فلموں کو قینچی سے جوڑ کر آج پکسلز کی فوٹو شاپنگ تک پیسٹ کیا جاتا ہے۔

اگرچہ ان دنوں یہ ایک مشکل کام تھا اور اس میں ماہرانہ مہارت کی ضرورت تھی، لیکن ان دنوں قائل کرنے والی فوٹو ریئلسٹک جعلی باتیں بہت آسان بنا دی گئی ہیں۔

سب سے پہلے ایک AI ماڈل کو یہ سیکھنا چاہیے کہ سافٹ ویئر کے ذریعے 2D یا 3D ماڈل سے کسی کی تصویر کو تصویر میں کیسے رینڈر یا سنتھیسائز کرنا ہے۔ ایک بار جب تصویر کو کامیابی کے ساتھ پیش کیا جاتا ہے، تو تصویر قدرتی طور پر ٹیکنالوجی کے لیے ایک کھیل بن جاتی ہے اور اس میں لامحدود مقدار میں تصاویر بنانے کی صلاحیت ہوتی ہے۔

جب کوئی AI ماڈل کا اشتراک کرنے کا انتخاب کرتا ہے، تو دوسرے لوگ بھی اس میں شامل ہو سکتے ہیں اور اس شخص کی تصاویر بھی بنانا شروع کر سکتے ہیں۔

AI ٹیک جو زندگی کو تباہ کرنے والی گہری جعلی تصاویر بناتی ہے۔

اصلی یا AI سے تیار کردہ؟

سوشل میڈیا کیس اسٹڈیز

ایک رضاکار جسے "بہادر" کے طور پر بیان کیا گیا ہے۔ ARS Technica، ایک ٹیک اشاعت، جس نے ابتدائی طور پر کمپنی کو اپنی تصاویر کو جعلی بنانے کے لیے استعمال کرنے کی اجازت دی تھی، کا دل بدل گیا۔

اس کی وجہ یہ ہے کہ کچھ ہی وقت میں، AI ماڈل سے پیش کی گئی تصاویر کے نتائج رضاکار کے لیے بہت زیادہ قابل اعتماد اور ساکھ کے لحاظ سے بہت زیادہ نقصان دہ تھے۔

اعلی ساکھ کے خطرے کو دیکھتے ہوئے، AI سے تیار کردہ فرضی شخص، جان، ایک فطری انتخاب بن گیا۔

جان، فرضی لڑکا، ایک ایلیمنٹری اسکول ٹیچر تھا، جس نے بہت سے دوسرے لوگوں کی طرح فیس بک پر کام پر، گھر میں ٹھنڈا ہونے اور اس طرح کی کسی تقریب میں اپنی تصاویر پوسٹ کیں۔

"جان" کی بڑی حد تک ناگوار تصاویر پیش کی گئیں اور پھر اسے مزید سمجھوتہ کرنے والی پوزیشنوں پر رکھنے کے لیے AI کو تربیت دینے کے لیے استعمال کیا گیا۔

صرف سات تصاویر سے، AI کو ایسی تصاویر بنانے کی تربیت دی جا سکتی ہے جس سے یہ ظاہر ہوتا ہے کہ گویا جان دوہری اور خفیہ زندگی گزار رہا ہے۔ مثال کے طور پر، وہ کسی ایسے شخص کے طور پر نمودار ہوا جو اپنی کلاس روم میں سیلفیز کے لیے عریاں پوز دینے سے لطف اندوز ہوتا تھا۔

رات کو، وہ ایک مسخرے کی طرح شراب خانوں میں گیا۔

ویک اینڈ پر، وہ ایک انتہا پسند نیم فوجی گروپ کا حصہ تھا۔

اے آئی نے یہ تاثر بھی پیدا کیا کہ اس نے منشیات کے غیر قانونی الزام میں جیل میں وقت گزارا تھا لیکن اس حقیقت کو اپنے آجر سے چھپایا تھا۔

ایک اور تصویر میں، جان، جو شادی شدہ ہے، ایک دفتر میں ایک عریاں عورت کے ساتھ پوز دیتے ہوئے نظر آ رہے ہیں جو ان کی بیوی نہیں ہے۔

AI امیج جنریٹر کا استعمال کرتے ہوئے کہا جاتا ہے۔ مستحکم بازی (ورژن 1.5) اور ڈریم بوتھ نامی تکنیک، آرس ٹیکنیکا AI کو تربیت دینے کے قابل تھی کہ کسی بھی انداز میں جان کی تصاویر کیسے بنائیں۔ اگرچہ جان ایک فرضی تخلیق تھی، لیکن نظریاتی طور پر کوئی بھی پانچ یا زیادہ تصاویر سے نتائج کا ایک ہی مجموعہ حاصل کر سکتا ہے۔ یہ تصاویر سوشل میڈیا اکاؤنٹس سے کھینچی جا سکتی ہیں یا کسی ویڈیو سے اسٹیل فریم کے طور پر لی جا سکتی ہیں۔

AI کو جان کی تصاویر بنانے کا طریقہ سکھانے کے عمل میں تقریباً ایک گھنٹہ لگا اور یہ گوگل کلاؤڈ کمپیوٹنگ سروس کی بدولت مفت تھا۔

پبلیکیشن نے کہا کہ جب تربیت مکمل ہوئی تو تصاویر بنانے میں کئی گھنٹے لگے۔ اور اس کی وجہ یہ نہیں تھی کہ امیجز بنانا ایک قدرے سست عمل تھا بلکہ اس لیے کہ بہت سی "نامکمل تصویروں" کے ذریعے کنگھی کرنے کی ضرورت تھی اور بہترین تصاویر تلاش کرنے کے لیے "آزمائشی اور غلطی" کی قسم کا استعمال کرنا تھا۔

تحقیق سے پتا چلا کہ شروع سے ہی فوٹوشاپ میں "جان" کی تصویر حقیقت پسندانہ جعلی بنانے کی کوشش کے مقابلے میں یہ بہت آسان تھا۔

ٹیکنالوجی کی بدولت، جان جیسے لوگوں کو ایسے دیکھا جا سکتا ہے جیسے انہوں نے غیر قانونی کام کیا ہو، یا غیر اخلاقی حرکتیں کی ہوں جیسے کہ گھر توڑنا، غیر قانونی منشیات کا استعمال کرنا اور طالب علم کے ساتھ عریاں نہانا۔ اگر AI ماڈلز کو فحش نگاری کے لیے بہتر بنایا جائے تو جان جیسے لوگ راتوں رات پورن اسٹار بن سکتے ہیں۔

کوئی جان کی ایسی تصاویر بھی بنا سکتا ہے جو بظاہر ناگوار کام کر رہا ہے جو تباہ کن ہو سکتا ہے اگر اسے بار میں گھستے ہوئے دکھایا جائے جب اس نے نرمی کا عہد کیا ہو۔

بات وہیں ختم نہیں ہوتی۔

ایک شخص ہلکے لمحے میں قرون وسطی کے نائٹ یا خلاباز کے طور پر بھی ظاہر ہو سکتا ہے۔ کچھ معاملات میں، لوگ یا تو جوان اور بوڑھے ہو سکتے ہیں یا یہاں تک کہ کپڑے پہن سکتے ہیں۔

تاہم، فراہم کی گئی تصاویر کامل سے دور ہیں. قریب سے دیکھنے سے انہیں جعلی معلوم ہوسکتا ہے۔

منفی پہلو یہ ہے کہ ان تصاویر کو تخلیق کرنے والی ٹیکنالوجی کو نمایاں طور پر اپ گریڈ کیا گیا ہے اور یہ ایک ترکیب شدہ تصویر اور حقیقی تصویر کے درمیان فرق کرنا ناممکن بنا سکتا ہے۔

پھر بھی ان کی خامیوں کے باوجود، جعلی جان کے بارے میں شکوک کے سائے ڈال سکتے ہیں اور ممکنہ طور پر اس کی ساکھ کو خراب کر سکتے ہیں۔

دیر سے، بہت سے لوگوں نے اسی تکنیک کا استعمال کیا ہے (حقیقی لوگوں کے ساتھ) اپنی نرالی اور فنکارانہ پروفائل تصاویر بنانے کے لیے۔

تجارتی خدمات اور ایپس جیسے لینسا تربیت کو ہینڈل کرنے کے لئے تیار ہے.

یہ کس طرح کام کرتا ہے؟

جان پر کام قابل ذکر لگ سکتا ہے اگر کوئی رجحانات کی پیروی نہیں کرتا ہے۔ آج، سافٹ ویئر انجینئر جانتے ہیں کہ کسی بھی چیز کی نئی تصویری حقیقت پسندانہ تصاویر کیسے بنائیں جو کوئی تصور کر سکتا ہے۔

تصاویر کے علاوہ، AI نے متنازعہ طور پر لوگوں کو نئے آرٹ ورک بنانے کی اجازت دی ہے جو موجودہ فنکاروں کے کام کو ان کی اجازت کے بغیر کلون کرتے ہیں۔

اخلاقی خدشات کی وجہ سے معطل

امریکی ٹیکنالوجی کے وکیل مچ جیکسن نے مارکیٹ میں گہری جعلی ٹیکنالوجی کے پھیلاؤ پر تشویش کا اظہار کیا اور کہا کہ وہ 2023 کے بیشتر حصے میں ٹیکنالوجی کے قانونی اثرات کا مطالعہ کریں گے۔

"کیا اصلی ہے اور کیا جعلی ہے میں فرق کرنا بالآخر زیادہ تر صارفین کے لیے ناممکن ہو جائے گا۔

ایڈوب کے پاس پہلے سے ہی Adobe VoCo نامی آڈیو ٹیکنالوجی موجود ہے جو کسی کو بھی بالکل کسی اور کی طرح آواز دینے کی اجازت دیتی ہے۔ Adobe VoCo پر کام اخلاقی خدشات کی وجہ سے معطل کر دیا گیا تھا، لیکن درجنوں دیگر کمپنیاں ٹیکنالوجی کو مکمل کر رہی ہیں، جن میں آج کچھ متبادل پیش کیے جا رہے ہیں۔ ایک نظر ڈالیں، یا خود سنیں،" مچم نے کہا.

وہ کہتے ہیں کہ گہری جعلی ویڈیوز کی تصاویر اور ویڈیو ورژن بہتر سے بہتر ہو رہے ہیں۔

"بعض اوقات، جعلی ویڈیوز کو اصلی سے بتانا ناممکن ہوتا ہے،" وہ مزید کہتے ہیں۔

اسٹیبل ڈفیوژن گہری سیکھنے والی تصویری ترکیب کا ماڈل استعمال کرتا ہے جو متن کی تفصیل سے نئی تصاویر بنا سکتا ہے اور ونڈوز یا لینکس پی سی پر، میک پر، یا کرائے کے کمپیوٹر ہارڈویئر پر کلاؤڈ میں چل سکتا ہے۔

اسٹیبل ڈفیوژن کے نیورل نیٹ ورک میں گہری سیکھنے کی مدد سے الفاظ کو جوڑنے میں مہارت حاصل کی گئی ہے اور تصویروں میں پکسلز کی پوزیشنوں کے درمیان عمومی شماریاتی ایسوسی ایشن ہے۔

اس کی وجہ سے، کوئی Stable Diffusion کو فوری طور پر دے سکتا ہے، جیسے "Tom Hanks in a classroom"، اور یہ صارف کو کلاس روم میں Tom Hanks کی ایک نئی تصویر دے گا۔

ٹام ہینک کے معاملے میں، یہ پارک میں چہل قدمی ہے کیونکہ اس کی سینکڑوں تصاویر پہلے سے ہی ڈیٹا سیٹ میں موجود ہیں جو Stable Diffusion کو تربیت دینے کے لیے استعمال کیا جاتا ہے۔ لیکن جان جیسے لوگوں کی تصاویر بنانے کے لیے، AI کو تھوڑی مدد کی ضرورت ہوگی۔

یہیں سے ڈریم بوتھ کک کرتا ہے۔

ڈریم بوتھ، جسے گوگل کے محققین نے 30 اگست کو شروع کیا تھا، ایک خاص تکنیک کا استعمال کرتے ہوئے اسٹیبل ڈفیوژن کو "فائن ٹیوننگ" نامی عمل کے ذریعے تربیت دیتا ہے۔

پہلے پہل، ڈریم بوتھ کا تعلق اسٹیبل ڈفیوژن سے نہیں تھا، اور گوگل نے غلط استعمال کے خدشے کے پیش نظر اپنا سورس کوڈ دستیاب نہیں کرایا تھا۔

کچھ ہی دیر میں، کسی نے Stable Diffusion کے ساتھ کام کرنے کے لیے ڈریم بوتھ تکنیک کو اپنانے کا راستہ تلاش کیا اور کوڈ کو آزادانہ طور پر ایک اوپن سورس پروجیکٹ کے طور پر جاری کیا، جس سے ڈریم بوتھ کو AI فنکاروں کے لیے Stable Diffusion کے نئے فنکارانہ انداز سکھانے کا ایک بہت مقبول طریقہ بنا۔

دنیا بھر میں اثرات

ایک اندازے کے مطابق دنیا بھر میں 4 ارب لوگ سوشل میڈیا استعمال کرتے ہیں۔ چونکہ ہم میں سے بہت سے لوگوں نے اپنی مٹھی بھر سے زیادہ تصاویر اپ لوڈ کی ہیں، اس لیے ہم اس طرح کے حملوں کا شکار ہو سکتے ہیں۔

اگرچہ امیج سنتھیسز ٹیکنالوجی کے اثرات کو مرد کے نقطہ نظر سے دکھایا گیا ہے، لیکن خواتین بھی اس کا خمیازہ بھگتتی ہیں۔

جب کسی عورت کا چہرہ یا جسم پیش کیا جاتا ہے، تو اس کی شناخت شرارت سے فحش تصاویر میں ڈالی جا سکتی ہے۔

یہ، AI ٹریننگ میں استعمال ہونے والے ڈیٹا سیٹس میں پائی جانے والی جنسی تصاویر کی بڑی تعداد سے ممکن ہوا ہے۔

دوسرے لفظوں میں، اس کا مطلب یہ ہے کہ AI ان فحش تصاویر کو بنانے کے طریقے سے بہت واقف ہے۔

ان میں سے کچھ اخلاقی مسائل کو حل کرنے کی کوشش میں، Stability AI کو اپنے حالیہ 2.0 ریلیز کے لیے اپنے تربیتی ڈیٹا سیٹ سے NSFW مواد کو ہٹانے پر مجبور کیا گیا۔

اگرچہ اس کا سافٹ ویئر لائسنس لوگوں کو ان کی اجازت کے بغیر لوگوں کی تصاویر بنانے کے لیے AI جنریٹر کا استعمال کرنے سے روکتا ہے، اس کے نفاذ کے لیے بہت کم امکانات ہیں۔

بچے بھی ترکیب شدہ تصویروں سے محفوظ نہیں ہیں اور اس ٹیکنالوجی کا استعمال کرتے ہوئے انہیں ڈرایا جا سکتا ہے یہاں تک کہ ان صورتوں میں جہاں تصویروں میں ہیرا پھیری نہ کی گئی ہو۔

AI ٹیک جو زندگی کو تباہ کرنے والی گہری جعلی تصاویر بناتی ہے۔

انسانوں کا بنایا ہوا؟

کیا ہم اس کے بارے میں کچھ کر سکتے ہیں؟

کرنے کے لیے چیزوں کی فہرست فرد سے مختلف ہوتی ہے۔ ایک طریقہ یہ ہے کہ آف لائن تصاویر کو ایک ساتھ ہٹانے کا سخت قدم اٹھایا جائے۔

اگرچہ یہ عام لوگوں کے لیے کام کر سکتا ہے، لیکن یہ مشہور شخصیات اور دیگر عوامی شخصیات کے لیے زیادہ حل نہیں ہے۔

تاہم، مستقبل میں، لوگ تکنیکی ذرائع کے ذریعے خود کو تصویر کے غلط استعمال سے بچانے کے قابل ہو سکتے ہیں۔ مستقبل کے AI امیج جنریٹرز کو قانونی طور پر مجبور کیا جا سکتا ہے کہ وہ اپنے آؤٹ پٹس میں غیر مرئی واٹر مارکس کو ایمبیڈ کریں۔

اس طرح، ان کے واٹر مارکس کو بعد میں پڑھا جا سکتا ہے اور لوگوں کے لیے یہ جاننا آسان ہو جاتا ہے کہ وہ جعلی ہیں۔

"وسیع ریگولیشن کی ضرورت ہے۔ ہیرا پھیری یا جعلی مواد کے کسی بھی ٹکڑے کو نمایاں طور پر ایک خط یا انتباہ ظاہر کرنے کی ضرورت ہے، جیسا کہ فلم (G, PG, R, اور X)۔ ہوسکتا ہے کہ ڈیجیٹل طور پر تبدیل شدہ یا ڈی اے جیسی کوئی چیز،" مچم کہتے ہیں.

Stability AI نے اس سال اپنے Stable Diffusion کو اوپن سورس پروجیکٹ کے طور پر شروع کیا۔

اس کے کریڈٹ پر، اسٹیبل ڈفیوژن پہلے سے ہی ایمبیڈڈ واٹر مارکس کو بطور ڈیفالٹ استعمال کرتا ہے، لیکن اس کے اوپن سورس ورژن تک رسائی حاصل کرنے والے لوگ یا تو سافٹ ویئر کے واٹر مارکنگ جزو کو غیر فعال کر کے یا اسے مکمل طور پر ہٹا کر اس کے گرد گھومتے ہیں۔

MIT کو کم کرنا

اگرچہ یہ مکمل طور پر قیاس آرائی پر مبنی ہے، لیکن ذاتی تصاویر میں رضاکارانہ طور پر شامل کیا گیا واٹر مارک، ڈریم بوتھ کی تربیت کے عمل میں خلل ڈال سکتا ہے۔ MIT محققین کے ایک گروپ نے کہا فوٹو گارڈ, ایک مخالفانہ عمل جس کا مقصد AI کو ایک غیر مرئی واٹر مارکنگ طریقہ کے استعمال کے ذریعے معمولی ترمیم کے ذریعے موجودہ تصویر کی ترکیب سے محفوظ رکھنا ہے۔ تاہم یہ صرف AI ایڈیٹنگ تک محدود ہے (اکثر اسے "inpainting" کہا جاتا ہے) کے استعمال کے معاملات اور اس میں تربیت یا تصاویر کی تخلیق شامل ہے۔

"AI تحریر اور پینٹنگ کو سنبھال رہا ہے! گہرے جعلی ویڈیو کو برباد کر دے گا!
اچھا ہے.
اس کا مطلب ہے کہ لائیو کارکردگی اور بھی زیادہ قیمتی ہو جاتی ہے۔ ٹریڈ شوز پروان چڑھیں گے۔ انسان انسانوں کے ساتھ کاروبار کرنا چاہتے ہیں۔
میٹ اسپیس اب بھی بہترین جگہ ہے۔" جوناتھن پچرڈ کا کہنا ہے کہ.

دیر سے، AI ٹیکنالوجی کا پھیلاؤ ہوا ہے جو لکھتے ہیں نظمیں، نظمیں اور گانے۔ اور کچھ وہ ہیں۔ مہارت کھیل.

ناقدین نے تکنیکی ترقی کو منفی انداز میں لیا ہے اور ان کا خیال ہے کہ AIs انسانی ملازمتیں لے رہے ہیں۔

/میٹا نیوز۔

ٹائم اسٹیمپ:

سے زیادہ میٹا نیوز