OpenAI استفاده در انتخابات و سرکوب رای دهندگان را رد می کند

OpenAI استفاده در انتخابات و سرکوب رای دهندگان را رد می کند

گره منبع: 3073710

OpenAI در اقدامی قاطع برای مبارزه با اطلاعات نادرست در انتخابات اعلام کرده است موضع سختگیرانه در برابر استفاده از ابزارهای هوش مصنوعی مولد آن در مبارزات انتخاباتی و تاکتیک های سرکوب رأی دهندگان.

این اعلامیه به عنوان گامی اساسی در جهت اطمینان از صداقت بسیاری از انتخابات کلیدی برنامه ریزی شده برای سال 2024 است.

همچنین بخوانید: OpenAI درباره صدور مجوز محتوای خبری با CNN، Fox و Time مذاکره می کند

مبارزه با سوء استفاده با نوآوری و سیاست

OpenAI راهبردی را برای محافظت از فناوری خود در برابر سوء استفاده برای دستکاری نتایج انتخابات آغاز کرده است. این شرکت یک تیم تخصصی با تمرکز بر نگرانی های مربوط به انتخابات، ادغام تخصص از بخش های مختلف، از جمله حقوقی، مهندسی، و سیاست ایجاد کرده است. هدف اصلی این تیم شناسایی و کاهش سوء استفاده احتمالی از هوش مصنوعی در انتخابات است.

ما یک تلاش متقابل داریم که به کار انتخاباتی اختصاص داده شده است، که تخصص سیستم‌های ایمنی، اطلاعات تهدیدات، حقوقی، مهندسی و تیم‌های خط‌مشی را گرد هم می‌آورد.»

تهدید اطلاعات نادرست در سیاست جدید نیست، با این حال ظهور فناوری هوش مصنوعی چالش‌های بی‌سابقه‌ای را به همراه دارد. با درک این موضوع، OpenAI در حال انجام اقدامات پیشگیرانه است. این شرکت قصد دارد از ترکیبی از تکنیک‌ها مانند تیم‌بندی قرمز، تعامل کاربر و نرده‌های محافظ استفاده کند. به طور خاص، تصویر آنها ابزار تولید، DALL-E، برای جلوگیری از ایجاد تصاویری که افراد واقعی از جمله نامزدهای سیاسی را به تصویر می‌کشند، به‌روزرسانی شده است.

«DALL·E نرده‌هایی برای رد درخواست‌هایی که درخواست تولید تصویر از افراد واقعی، از جمله نامزدها را دارند، دارد.»

OpenAI به طور مداوم در سیاست های کاربران خود تجدید نظر می کند تا همگام با چشم انداز در حال تحول فناوری هوش مصنوعی و سوء استفاده احتمالی آن باشد. سیاست های ایمنی به روز شده آن اکنون به صراحت توسعه برنامه های کاربردی هوش مصنوعی برای مبارزات سیاسی و لابی را محدود می کند. علاوه بر این، اقداماتی برای جلوگیری از ایجاد ربات‌های چت که افراد یا سازمان‌های واقعی را تقلید می‌کنند، اتخاذ شده است.

افزایش شفافیت و مسئولیت پذیری

یکی از مؤلفه‌های کلیدی استراتژی OpenAI، معرفی یک طبقه‌بندی‌کننده منشأ برای ابزار DALL-E آن است. این ویژگی که در حال حاضر در حال آزمایش بتا است، می تواند تصاویر تولید شده توسط DALL-E را شناسایی کند. این شرکت قصد دارد این ابزار را برای روزنامه نگاران، پلتفرم ها و محققان در دسترس قرار دهد تا شفافیت در محتوای تولید شده توسط هوش مصنوعی را افزایش دهد.

ما قصد داریم به زودی آن را برای اولین گروه آزمایش‌کنندگان خود - از جمله روزنامه‌نگاران، پلتفرم‌ها و محققان - برای بازخورد در دسترس قرار دهیم.»

OpenAI همچنین گزارش‌های خبری بلادرنگ را در آن ادغام می‌کند GPT چت. هدف این ادغام ارائه اطلاعات دقیق و به موقع به کاربران، افزایش شفافیت در مورد منابع اطلاعاتی ارائه شده توسط هوش مصنوعی است.

OpenAI در تلاش مشترک با انجمن ملی وزرای امور خارجه در ایالات متحده، بر جلوگیری از ممانعت از شرکت در انتخابات توسط فناوری خود متمرکز شده است. کار تیمی شامل هدایت کاربران چت بات مجهز به GPT به وب سایت های اطلاعات رای گیری قابل اعتماد مانند CanIVote.org است.

رقبا در مسابقه هوش مصنوعی از همین روش پیروی می کنند

اعلام OpenAI یک سابقه در صنعت هوش مصنوعی ایجاد کرده است، با رقبایی مانند Google LLC و Meta Platforms Inc. نیز اقداماتی را برای مبارزه با اطلاعات نادرست منتشر شده از طریق فناوری های خود اجرا می کنند. این تلاش جمعی توسط رهبران صنعت نشان دهنده آگاهی و مسئولیت فزاینده نسبت به تأثیر بالقوه هوش مصنوعی بر فرآیندهای دموکراتیک است.

اما آیا این کافی است؟ چارلز کینگ از شرکت Pund-IT یک نکته مهم را مطرح می کند و این سوال را مطرح می کند که آیا این اقدامات به موقع هستند یا واکنشی. او استدلال می‌کند که نگرانی‌ها در مورد اطلاعات نادرست تولید شده توسط هوش مصنوعی برای سال‌ها وجود داشته است و اعلامیه اخیر OpenAI ممکن است بسیار کم و دیر تلقی شود. این دیدگاه باعث تأمل عمیق تری در مورد نقش و مسئولیت توسعه دهندگان هوش مصنوعی در چشم انداز سیاسی می شود.

بنابراین در بهترین حالت، این اعلامیه نشان می‌دهد که OpenAI در حالت سوئیچ خواب بوده است. اما در بدترین حالت، شبیه یک مراسم شستن دست است که OpenAI می تواند به آن اشاره کند وقتی هوش مصنوعی مولد در انتخابات جهانی آینده امسال به طرفداران ضربه می زند.

تمبر زمان:

بیشتر از متانیوز