OpenAI انتخابات اور ووٹر دبانے میں استعمال کو روکتا ہے۔

OpenAI انتخابات اور ووٹر دبانے میں استعمال کو روکتا ہے۔

ماخذ نوڈ: 3073710

انتخابات میں غلط معلومات کا مقابلہ کرنے کے لیے ایک فیصلہ کن اقدام میں، OpenAI نے اعلان کیا ہے۔ سخت موقف انتخابی مہموں اور ووٹر کو دبانے کے ہتھکنڈوں میں اس کے تخلیقی AI ٹولز کے استعمال کے خلاف۔

یہ اعلان 2024 میں ہونے والے متعدد اہم انتخابات کی سالمیت کو یقینی بنانے کی جانب ایک ضروری قدم کے طور پر سامنے آیا ہے۔

مزید پڑھئے: OpenAI CNN، Fox اور Time کے ساتھ خبروں کے مواد کی لائسنسنگ پر بات چیت کرتا ہے۔

بدعت اور پالیسی کے ساتھ غلط استعمال کا مقابلہ کرنا

OpenAI نے اپنی ٹیکنالوجی کو انتخابی نتائج میں ہیرا پھیری کے لیے استعمال ہونے سے بچانے کے لیے ایک حکمت عملی شروع کی ہے۔ کمپنی نے قانونی، انجینئرنگ اور پالیسی سمیت مختلف محکموں کی مہارت کو یکجا کرتے ہوئے الیکشن سے متعلق خدشات پر توجہ مرکوز کرنے والی ایک خصوصی ٹیم قائم کی ہے۔ اس ٹیم کا بنیادی مقصد انتخابات میں AI کے ممکنہ غلط استعمال کی نشاندہی کرنا اور اس میں تخفیف کرنا ہے۔

"ہمارے پاس انتخابی کام کے لیے وقف ایک کراس فنکشنل کوشش ہے، جو اپنے حفاظتی نظام، خطرے کی انٹیلی جنس، قانونی، انجینئرنگ، اور پالیسی ٹیموں کی مہارت کو اکٹھا کر رہی ہے۔"

سیاست میں غلط معلومات کا خطرہ کوئی نیا نہیں ہے، پھر بھی AI ٹیکنالوجی کی آمد بے مثال چیلنجز پیش کرتی ہے۔ اسے تسلیم کرتے ہوئے، OpenAI فعال اقدامات کر رہا ہے۔ کمپنی ریڈ ٹیمنگ، صارف کی مصروفیت، اور حفاظتی محافظوں جیسی تکنیکوں کے مرکب کو استعمال کرنے کا ارادہ رکھتی ہے۔ خاص طور پر، ان کی تصویر نسل کا آلہ، DALL-E، سیاسی امیدواروں سمیت حقیقی لوگوں کی تصویر کشی کرنے والی تصاویر کی تخلیق کو روکنے کے لیے اپ ڈیٹ کیا گیا ہے۔

"DALL·E کے پاس ان درخواستوں کو مسترد کرنے کے لیے گارڈریلز ہیں جو امیدواروں سمیت حقیقی لوگوں کی تصویر بنانے کا مطالبہ کرتے ہیں۔"

اوپن اے آئی AI ٹیکنالوجی کے ابھرتے ہوئے منظر نامے اور اس کے ممکنہ غلط استعمال سے ہم آہنگ رہنے کے لیے اپنی صارف کی پالیسیوں پر مسلسل نظر ثانی کرتا ہے۔ اس کی تازہ ترین حفاظتی پالیسیاں اب واضح طور پر سیاسی مہم اور لابنگ کے لیے AI ایپلی کیشنز کی ترقی کو محدود کرتی ہیں۔ مزید برآں، ایسے چیٹ بوٹس کی تخلیق کو روکنے کے لیے اقدامات کیے گئے ہیں جو حقیقی لوگوں یا تنظیموں کی نقل کرتے ہیں۔

شفافیت اور احتساب کو بڑھانا

OpenAI کی حکمت عملی کا ایک اہم جز اس کے DALL-E ٹول کے لیے پرووینس کلاسیفائر کا تعارف ہے۔ یہ فیچر، فی الحال بیٹا ٹیسٹنگ میں، DALL-E کی طرف سے تیار کردہ تصاویر کا پتہ لگا سکتا ہے۔ کمپنی کا مقصد اس ٹول کو صحافیوں، پلیٹ فارمز اور محققین کے لیے قابل رسائی بنانا ہے تاکہ AI سے تیار کردہ مواد میں شفافیت کو بڑھایا جا سکے۔

"ہم جلد ہی اسے اپنے ٹیسٹرز کے پہلے گروپ بشمول صحافیوں، پلیٹ فارمز اور محققین کو تاثرات کے لیے دستیاب کرنے کا ارادہ رکھتے ہیں۔"

OpenAI ریئل ٹائم نیوز رپورٹنگ کو بھی اس میں ضم کر رہا ہے۔ چیٹ جی پی ٹی. اس انضمام کا مقصد صارفین کو درست اور بروقت معلومات فراہم کرنا ہے، جس سے AI کی طرف سے فراہم کردہ معلومات کے ذرائع کے ارد گرد شفافیت کو بڑھانا ہے۔

امریکہ میں نیشنل ایسوسی ایشن آف سیکرٹریز آف اسٹیٹ کے ساتھ مشترکہ کوشش میں، OpenAI اپنی ٹیکنالوجی کو انتخابی شرکت کی حوصلہ شکنی سے روکنے پر مرکوز ہے۔ ٹیم ورک میں GPT سے چلنے والے چیٹ بوٹ صارفین کو ووٹنگ کی معلومات کی قابل اعتماد ویب سائٹس جیسے CanIVote.org کی طرف ہدایت کرنا شامل ہے۔

حریف AI ریس میں اس کی پیروی کرتے ہیں۔

اوپن اے آئی کے اعلان نے اے آئی انڈسٹری میں ایک مثال قائم کی ہے، جیسے حریفوں کے ساتھ گوگل ایل ایل ایل اور Meta Platforms Inc. اپنی ٹیکنالوجیز کے ذریعے پھیلائی جانے والی غلط معلومات سے نمٹنے کے لیے اقدامات کو بھی نافذ کر رہا ہے۔ صنعت کے رہنماؤں کی یہ اجتماعی کوشش جمہوری عمل پر AI کے ممکنہ اثرات کے حوالے سے بڑھتی ہوئی بیداری اور ذمہ داری کی نشاندہی کرتی ہے۔

لیکن کیا یہ کافی ہے؟ پنڈ-آئی ٹی انکارپوریشن کے چارلس کنگ نے ایک اہم نکتہ اٹھایا، سوال کیا کہ آیا یہ اقدامات بروقت ہیں یا رد عمل۔ وہ دلیل دیتے ہیں کہ AI سے پیدا ہونے والی غلط معلومات کے بارے میں خدشات برسوں سے موجود ہیں، اور OpenAI کے حالیہ اعلان کو بہت کم، بہت دیر سے دیکھا جا سکتا ہے۔ یہ نقطہ نظر سیاسی منظر نامے میں AI ڈویلپرز کے کردار اور ذمہ داری پر گہری عکاسی کرتا ہے۔

"تو بہترین طور پر، اس اعلان سے پتہ چلتا ہے کہ OpenAI سوئچ پر سو رہا تھا۔ لیکن بدترین طور پر، یہ ہاتھ دھونے کی رسم سے مشابہت رکھتا ہے جس کی طرف OpenAI اشارہ کر سکتا ہے جب اس سال آنے والے عالمی انتخابات کے دوران جنریٹیو AI پنکھے سے ٹکرائے گا۔"

ٹائم اسٹیمپ:

سے زیادہ میٹا نیوز