دانشمند ارشد هوش مصنوعی متا تهدید وجودی هوش مصنوعی را رد کرد

دانشمند ارشد هوش مصنوعی متا تهدید وجودی هوش مصنوعی را رد کرد

گره منبع: 2951498

بحث جهانی هوش مصنوعی (AI) به نقطه حساسی رسیده است. اعلامیه های اخیر از سوی صاحبان وزن صنعت حاکی از اختلاف فاحش نظرات است. Yann LeCun، دانشمند ارشد هوش مصنوعی متا، در یک انتها ایستاده است و ایمنی هوش مصنوعی را در شکل فعلی آن تایید می کند.

برعکس، دکتر جفری هینتون، که با محبت "پدرخوانده هوش مصنوعی" خوانده می شود، از گوگل استعفا داد تا نگرانی های مبرم خود را روشن کند.

بحث بزرگ هوش مصنوعی

در خود مصاحبه با فایننشال تایمز، لکان حرفی نزد. او نگرانی‌ها در مورد خطر وجودی هوش مصنوعی را «بی‌موقع» خواند. او همچنین توضیح داد که این ایده که هوش مصنوعی می‌تواند بشریت را از بین ببرد «احمقانه» است. با این حال، این دیدگاه باعث می شود که بحث فعلی در مورد هوش مصنوعی بسیار جذاب باشد.

او بر محدودیت‌های فعلی هوش مصنوعی تأکید می‌کند: «بحث در مورد ریسک وجودی بسیار زودرس است تا زمانی که ما طراحی سیستمی داشته باشیم که بتواند از نظر توانایی‌های یادگیری با گربه رقابت کند، چیزی که در حال حاضر نداریم.» علاوه بر این، LeCun تاکید کرد که مدل‌های فعلی هوش مصنوعی ما باید پیچیدگی‌های دنیای ما را درک کنند. آنها نمی توانند واقعاً برنامه ریزی یا استدلال کنند.

با این حال، چنین خوش بینی در خارج از جامعه هوش مصنوعی مشترک است. دکتر هینتون عزیمت، خروج از سوی گوگل و توضیحات بعدی بر این واگرایی تاکید دارد. نگرانی های فوری او شامل پتانسیل هوش مصنوعی است سوء استفاده در پلتفرم های آنلاین او می ترسد که هوش مصنوعی اینترنت را با عکس ها، فیلم ها و متن های جعلی پر کند و تمایز بین محتوای واقعی و تولید شده توسط هوش مصنوعی را به طور فزاینده ای پیچیده کند.

فراتر از این پیامدهای مستقیم، ترس‌های گسترده‌تر هینتون حول تأثیرات اجتماعی هوش مصنوعی، به ویژه از دست دادن شغل بالقوه و رقابت تسلیحاتی در حال تشدید هوش مصنوعی می‌چرخد. این نگرانی اخیر به صراحت بر توسعه سیستم های تسلیحاتی خود مختار مرگبار (LAWS) می پردازد.

اشتباهات و استفاده نادرست هوش مصنوعی

یکی دیگر از ابعاد مکالمه هوش مصنوعی، سوء استفاده احتمالی آن است. به عنوان مثال، پلتفرم ارزهای دیجیتال مشهور جهانی بایننس خود را در میان یک کمپین افشاگری ایجاد شده توسط هوش مصنوعی یافت. هوش مصنوعی به طور نادرستی مدیر عامل خود، Changpeng "CZ" Zhao را با یک سازمان جوانان حزب کمونیست چین مرتبط کرد.

علاوه بر این، ابزارهای هوش مصنوعی پتانسیل تولید اخبار جعلی را نشان داده اند که باعث نگرانی های قابل توجهی در چشم انداز رسانه ها شده است. به عنوان مثال، دیلی میل در انتشار داستانی بر اساس اطلاعات تولید شده توسط هوش مصنوعی گمراه شد که بعداً آن را پس گرفت. این موارد بر ترس هایی تأکید می کند که کارشناسانی مانند دکتر هینتون از آن دفاع کرده اند.

احتیاط جهانی را فرا می خواند

در حالی که صداهای فردی ضروری است، قدردانی های جمعی حتی گویاتر است. چندین متخصص هوش مصنوعی، از جمله کسانی که در راس سازمان‌هایی مانند OpenAI و Google DeepMind هستند، به طور مشترک نگرانی‌های خود را ابراز کرده‌اند. بیانیه مشترک آنها، مختصر و در عین حال قدرتمند، می‌گوید: «کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند همه‌گیری‌ها و جنگ هسته‌ای، یک اولویت جهانی باشد.»

با این حال، مسیر رو به جلو می تواند حتی در این فراخوان جمعی برای احتیاط آشکارتر باشد. مدیر عامل OpenAI، سم آلتمن، نگاهی اجمالی به این روایت پیچیده ارائه کرد. در حالی که او قبل از الف ظاهر شد جلسه دادگاه سنا برای بحث در مورد مقررات هوش مصنوعی، او بر اهمیت کنترل و تعادل بدون توقف نوآوری تأکید کرد.

حرکت رو به جلو با هوش مصنوعی

پیمایش در این بحث‌ها از آنجایی که جامعه عمیق‌تر به دوران تحت سلطه هوش مصنوعی می‌پردازد، بسیار مهم خواهد بود. در حالی که رهبران صنعت مانند LeCun به مسیر مثبت هوش مصنوعی ابراز اطمینان می کنند، صداهای احتیاطی مانند هینتون ما را به یاد چالش های پیش رو می اندازد.

ایجاد تعادل ظریف بین نوآوری و مقررات بسیار مهم خواهد بود. گفتمان جاری پیرامون خطرات و فرصت‌های بالقوه هوش مصنوعی بیش از آکادمیک است، زیرا نقش تعیین‌کننده‌ای در نحوه استفاده بشر از این فناوری تحول‌آفرین خواهد داشت.

تمبر زمان:

بیشتر از متانیوز