OpenAI تستبعد الاستخدام في الانتخابات وقمع الناخبين

OpenAI تستبعد الاستخدام في الانتخابات وقمع الناخبين

عقدة المصدر: 3073710

في خطوة حاسمة لمكافحة المعلومات الخاطئة في الانتخابات، أعلنت شركة OpenAI عن موقف صارم ضد استخدام أدوات الذكاء الاصطناعي التوليدية في الحملات الانتخابية وتكتيكات قمع الناخبين.

ويأتي هذا الإعلان كخطوة أساسية نحو ضمان نزاهة العديد من الانتخابات الرئيسية المقرر إجراؤها في عام 2024.

اقرأ أيضا: تتفاوض شركة OpenAI بشأن ترخيص المحتوى الإخباري مع CNN وFox وTime

مكافحة سوء الاستخدام بالابتكار والسياسة

بدأت شركة OpenAI استراتيجية لحماية تكنولوجيتها من الاستغلال للتلاعب بنتائج الانتخابات. أنشأت الشركة فريقًا متخصصًا يركز على الاهتمامات المتعلقة بالانتخابات، ودمج الخبرات من مختلف الأقسام، بما في ذلك الشؤون القانونية والهندسية والسياسات. الهدف الأساسي لهذا الفريق هو تحديد وتخفيف إساءة الاستخدام المحتملة للذكاء الاصطناعي في الانتخابات.

"لدينا جهد متعدد الوظائف مخصص للعمل الانتخابي، يجمع بين الخبرات من أنظمة السلامة لدينا، واستخبارات التهديدات، والفرق القانونية والهندسية والسياساتية."

إن التهديد المتمثل في المعلومات المضللة في السياسة ليس جديدا، ومع ذلك فإن ظهور تكنولوجيا الذكاء الاصطناعي يفرض تحديات غير مسبوقة. وإدراكًا لذلك، تتخذ شركة OpenAI تدابير استباقية. وتخطط الشركة لاستخدام مزيج من التقنيات مثل الفريق الأحمر، وإشراك المستخدمين، وحواجز السلامة. على وجه التحديد، صورتهم أداة التوليد DALL-E، تم تحديثه لمنع إنشاء صور تصور أشخاصًا حقيقيين، بما في ذلك المرشحين السياسيين.

"لدى DALL·E حواجز تمنعها من رفض الطلبات التي تطلب تكوين صورة لأشخاص حقيقيين، بما في ذلك المرشحين."

تقوم OpenAI باستمرار بمراجعة سياسات المستخدم الخاصة بها لمواكبة المشهد المتطور لتكنولوجيا الذكاء الاصطناعي وسوء استخدامها المحتمل. والآن تعمل سياسات السلامة المحدثة لديها على تقييد تطوير تطبيقات الذكاء الاصطناعي لأغراض الحملات السياسية وممارسة الضغوط. بالإضافة إلى ذلك، تم اتخاذ تدابير لمنع إنشاء روبوتات الدردشة التي تحاكي الأشخاص أو المنظمات الحقيقية.

تعزيز الشفافية والمساءلة

أحد المكونات الرئيسية لاستراتيجية OpenAI هو تقديم مصنف المصدر لأداة DALL-E الخاصة بها. يمكن لهذه الميزة، الموجودة حاليًا في مرحلة الاختبار التجريبي، اكتشاف الصور التي تم إنشاؤها بواسطة DALL-E. وتهدف الشركة إلى جعل هذه الأداة في متناول الصحفيين والمنصات والباحثين لتعزيز الشفافية في المحتوى الذي ينشئه الذكاء الاصطناعي.

"نحن نخطط لإتاحته قريبًا للمجموعة الأولى من المختبرين لدينا - بما في ذلك الصحفيين والمنصات والباحثين - للحصول على تعليقاتهم."

تقوم OpenAI أيضًا بدمج التقارير الإخبارية في الوقت الفعلي في شات جي بي تي. ويهدف هذا التكامل إلى تزويد المستخدمين بمعلومات دقيقة وفي الوقت المناسب، وتعزيز الشفافية حول مصادر المعلومات التي يوفرها الذكاء الاصطناعي.

وفي جهد مشترك مع الرابطة الوطنية لوزراء الخارجية في الولايات المتحدة، تركز شركة OpenAI على منع التكنولوجيا الخاصة بها من تثبيط المشاركة الانتخابية. يتضمن العمل الجماعي توجيه مستخدمي chatbot الذي يعمل بنظام GPT إلى مواقع معلومات التصويت الموثوقة مثل CanIVote.org.

المنافسون يحذون حذوهم في سباق الذكاء الاصطناعي

لقد شكل إعلان OpenAI سابقة في صناعة الذكاء الاصطناعي، مع وجود منافسين مثلها غوغل ليك وتقوم شركة Meta Platforms Inc. أيضًا بتنفيذ تدابير لمكافحة المعلومات الخاطئة المنتشرة من خلال تقنياتها. يدل هذا الجهد الجماعي الذي يبذله قادة الصناعة على الوعي المتزايد والمسؤولية تجاه التأثير المحتمل للذكاء الاصطناعي على العمليات الديمقراطية.

ولكن هل هذا يكفي؟ يثير تشارلز كينج، من شركة Pund-IT Inc.، نقطة حرجة، حيث يتساءل عما إذا كانت هذه التدابير تأتي في الوقت المناسب أم أنها رد فعل. وهو يجادل بأن المخاوف بشأن المعلومات الخاطئة التي يولدها الذكاء الاصطناعي كانت موجودة منذ سنوات، ويمكن النظر إلى إعلان OpenAI الأخير على أنه قليل للغاية ومتأخر للغاية. ويثير هذا المنظور تفكيرًا أعمق حول دور ومسؤولية مطوري الذكاء الاصطناعي في المشهد السياسي.

"لذلك، في أحسن الأحوال، يشير هذا الإعلان إلى أن OpenAI كانت نائمة عند المفتاح. ولكن في أسوأ الأحوال، فإنه يشبه طقوس غسل اليدين التي يمكن لـ OpenAI الإشارة إليها عندما يضرب الذكاء الاصطناعي التوليدي المعجبين خلال الانتخابات العالمية المقبلة هذا العام.

الطابع الزمني:

اكثر من ميتا نيوز