کارشناسان نسبت به انقراض هوش مصنوعی در صورت عدم اقدام در حال حاضر هشدار می دهند

کارشناسان نسبت به انقراض هوش مصنوعی در صورت عدم اقدام در حال حاضر هشدار می دهند

گره منبع: 2688105

نامه سرگشاده دیگری در مورد هوش مصنوعی وجود دارد. این بار طیف گسترده‌ای از رهبران فناوری، چهره‌های برجسته ML و حتی چند نفر از افراد مشهور با امضای قرارداد از جهان می‌خواهند تا تهدیدات احتمالی در سطح انقراض ناشی از هوش مصنوعی را جدی‌تر بگیرد. 

بیانیه ای مناسب تر، پیام مرکز ایمنی هوش مصنوعی (CAIS) که توسط افرادی مانند پیشگامان هوش مصنوعی امضا شده است. جفری هینتونسام آلتمن، مدیر عامل OpenAI، مارتین هلمن، مربی رمزگذاری، کوین اسکات مدیر ارشد فناوری مایکروسافت و دیگران یک جمله اعلامی واحد پیش بینی آخرالزمان در صورت عدم توجه:

کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری های همه گیر و جنگ هسته ای یک اولویت جهانی باشد. 

چرا اینقدر مختصر؟ هدف «نشان دادن ائتلاف گسترده و رو به رشد دانشمندان هوش مصنوعی، رهبران فناوری و اساتیدی بود که نگران خطرات انقراض هوش مصنوعی هستند. دن هندریکس، مدیر CAIS گفت: ما نیاز به تصدیق گسترده در مورد مخاطرات داریم تا بتوانیم بحث‌های سیاسی مفیدی داشته باشیم. ثبت نام.

CAIS هیچ اشاره ای به هوش عمومی مصنوعی (AGI) در خود نمی کند لیست خطرات هوش مصنوعی، ما یادآور میشویم. هندریکس به ما گفت و مدل های نسل فعلی، مانند ChatGPT، تهدیدی آخرالزمانی برای بشریت نیستند. هشدار این هفته در مورد آنچه ممکن است در آینده رخ دهد است.

هندریکس معتقد است: «انواع تهدیدات فاجعه‌باری که این بیانیه به آنها اشاره می‌کند با سیستم‌های هوش مصنوعی پیشرفته آینده مرتبط است. او افزود که پیشرفت‌های لازم برای رسیدن به سطح «تهدید آخرالزمانی» ممکن است دو تا ۱۰ سال دیگر باشد، نه چند دهه. "ما باید اکنون آماده شویم. با این حال، سیستم‌های هوش مصنوعی که می‌توانند نتایج فاجعه‌باری ایجاد کنند، نیازی به AGI ندارند.» 

زیرا انسان ها به هر حال کاملاً صلح آمیز هستند

یکی مثل تهدید اسلحه سازی یا این ایده که شخصی می تواند هوش مصنوعی خیرخواهانه را به شدت مخرب تغییر دهد، مانند استفاده از یک ربات کشف دارو برای توسعه سلاح های شیمیایی یا بیولوژیکی، یا استفاده از یادگیری تقویتی برای نبردهای مبتنی بر ماشین. گفته می‌شود، انسان‌ها در حال حاضر کاملاً قادر به ساخت آن نوع سلاح‌هایی هستند که می‌توانند یک فرد، محله، شهر یا کشور را از بین ببرند.

به ما هشدار داده شده است که هوش مصنوعی همچنین می تواند آموزش ببیند تا اهداف خود را بدون توجه به ارزش های فردی یا اجتماعی دنبال کند. این می‌تواند انسان‌هایی را که در نهایت مهارت‌ها و توانایی‌های خود را به ماشین‌های خودکار واگذار می‌کنند، "ضعف" کند و باعث عدم تعادل قدرت بین کنترل‌کننده‌های هوش مصنوعی و افرادی شود که توسط اتوماسیون جابجا شده‌اند، یا برای انتشار اطلاعات نادرست، عمدا یا مورد استفاده قرار گیرد. در غیر این صورت.

باز هم، هیچ یک از هوش مصنوعی درگیر در آن نیازی به کلی بودن ندارد، و دیدن پتانسیل هوش مصنوعی نسل فعلی برای ایجاد انواع خطراتی که CAIS نگران آن است، چندان طولانی نیست. شما ممکن است نظرات خود را در مورد این که نرم افزار واقعاً مخرب یا توانا باشد یا خواهد بود و واقعاً چه چیزی می تواند به دست آورد، داشته باشید.

استدلال CAIS می‌گوید، بررسی و رسیدگی به تأثیرات منفی هوش مصنوعی که در حال حاضر احساس شده‌اند، و تبدیل آن تأثیرات موجود به آینده‌نگاری بسیار مهم است. هندریکس گفت: «در حالی که ما با خطرات فوری هوش مصنوعی دست و پنجه نرم می کنیم، صنعت هوش مصنوعی و دولت های سراسر جهان باید به طور جدی با خطری که هوش مصنوعی آینده می تواند وجود انسان را تهدید کند، مقابله کنند. گفت: در بیانیه ای.

جهان با موفقیت برای کاهش خطرات مربوط به جنگ هسته ای همکاری کرده است. هندریکس با فهرستی از رهبران شرکت‌ها، دانشگاهی و فکری که از او حمایت می‌کنند، به همان سطح تلاش برای پرداختن به خطرات ناشی از سیستم‌های هوش مصنوعی آینده نیاز است. 

ماسک در کشتی نیست

امضاکنندگان دیگر عبارتند از دانشمند اصلی Google DeepMind، ایان گودفلو، فیلسوفان دیوید چالمرز و دانیل دنت، نویسنده و وبلاگ نویس سام هریس و موسیقیدان/الون ماسک سابق، گریمز. در مورد خود مرد، امضای ماسک وجود ندارد. 

مدیر عامل توییتر بود در میان کسانی که یک را امضا کردند نامه سر گشاده منتشر شده توسط موسسه آینده زندگی در ماه مارس گذشته و اصرار a مکث شش ماهه در مورد آموزش سیستم های هوش مصنوعی "قدرتمندتر از GPT-4". جای تعجب نیست که امضای آلتمن مدیر عامل OpenAI وجود نداشت که نامه خاص، ظاهراً به این دلیل که مستقیماً شرکت او را فراخوانده بود. 

OpenAI از آن زمان منتشر شده است هشدارهای خودش در مورد تهدیدات ناشی از هوش مصنوعی پیشرفته و خواستار ایجاد یک ناظر جهانی مشابه آژانس بین المللی انرژی اتمی برای تنظیم استفاده از هوش مصنوعی شد.

آن هشدار و تماس نظارتی، در مورد زمان‌بندی ضعیف تاریخی، در همان روز آلتمن مطرح شد تهدید برای بیرون کشیدن OpenAI و ChatGPT با آن از اتحادیه اروپا بر روی بلوک قانون هوش مصنوعی. قوانینی که او پشتیبانی می کند یک چیز است، اما آلتمن به بروکسل گفت که ایده آنها در مورد محدودیت هوش مصنوعی یک پل نظارتی بسیار دور است، بسیار متشکرم. 

نمایندگان پارلمان اتحادیه اروپا در پاسخ کیم ون اسپارنتاک، عضو پارلمان هلندی، با بیان اینکه OpenAI به آنها دیکته نمی‌شود و اینکه اگر شرکت نتواند قوانین اساسی حاکمیت و شفافیت را رعایت کند، «سیستم‌های آنها برای بازار اروپا مناسب نیستند» اظهار داشت. 

ما از OpenAI برای توضیح در مورد موقعیت(های) آلتمن خواسته ایم و در صورت شنیدن پاسخ، این داستان را به روز خواهیم کرد. ®

تمبر زمان:

بیشتر از ثبت نام