نامه سرگشاده دیگری در مورد هوش مصنوعی وجود دارد. این بار طیف گستردهای از رهبران فناوری، چهرههای برجسته ML و حتی چند نفر از افراد مشهور با امضای قرارداد از جهان میخواهند تا تهدیدات احتمالی در سطح انقراض ناشی از هوش مصنوعی را جدیتر بگیرد.
بیانیه ای مناسب تر، پیام مرکز ایمنی هوش مصنوعی (CAIS) که توسط افرادی مانند پیشگامان هوش مصنوعی امضا شده است. جفری هینتونسام آلتمن، مدیر عامل OpenAI، مارتین هلمن، مربی رمزگذاری، کوین اسکات مدیر ارشد فناوری مایکروسافت و دیگران یک جمله اعلامی واحد پیش بینی آخرالزمان در صورت عدم توجه:
کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری های همه گیر و جنگ هسته ای یک اولویت جهانی باشد.
چرا اینقدر مختصر؟ هدف «نشان دادن ائتلاف گسترده و رو به رشد دانشمندان هوش مصنوعی، رهبران فناوری و اساتیدی بود که نگران خطرات انقراض هوش مصنوعی هستند. دن هندریکس، مدیر CAIS گفت: ما نیاز به تصدیق گسترده در مورد مخاطرات داریم تا بتوانیم بحثهای سیاسی مفیدی داشته باشیم. ثبت نام.
CAIS هیچ اشاره ای به هوش عمومی مصنوعی (AGI) در خود نمی کند لیست خطرات هوش مصنوعی، ما یادآور میشویم. هندریکس به ما گفت و مدل های نسل فعلی، مانند ChatGPT، تهدیدی آخرالزمانی برای بشریت نیستند. هشدار این هفته در مورد آنچه ممکن است در آینده رخ دهد است.
هندریکس معتقد است: «انواع تهدیدات فاجعهباری که این بیانیه به آنها اشاره میکند با سیستمهای هوش مصنوعی پیشرفته آینده مرتبط است. او افزود که پیشرفتهای لازم برای رسیدن به سطح «تهدید آخرالزمانی» ممکن است دو تا ۱۰ سال دیگر باشد، نه چند دهه. "ما باید اکنون آماده شویم. با این حال، سیستمهای هوش مصنوعی که میتوانند نتایج فاجعهباری ایجاد کنند، نیازی به AGI ندارند.»
زیرا انسان ها به هر حال کاملاً صلح آمیز هستند
یکی مثل تهدید اسلحه سازی یا این ایده که شخصی می تواند هوش مصنوعی خیرخواهانه را به شدت مخرب تغییر دهد، مانند استفاده از یک ربات کشف دارو برای توسعه سلاح های شیمیایی یا بیولوژیکی، یا استفاده از یادگیری تقویتی برای نبردهای مبتنی بر ماشین. گفته میشود، انسانها در حال حاضر کاملاً قادر به ساخت آن نوع سلاحهایی هستند که میتوانند یک فرد، محله، شهر یا کشور را از بین ببرند.
به ما هشدار داده شده است که هوش مصنوعی همچنین می تواند آموزش ببیند تا اهداف خود را بدون توجه به ارزش های فردی یا اجتماعی دنبال کند. این میتواند انسانهایی را که در نهایت مهارتها و تواناییهای خود را به ماشینهای خودکار واگذار میکنند، "ضعف" کند و باعث عدم تعادل قدرت بین کنترلکنندههای هوش مصنوعی و افرادی شود که توسط اتوماسیون جابجا شدهاند، یا برای انتشار اطلاعات نادرست، عمدا یا مورد استفاده قرار گیرد. در غیر این صورت.
باز هم، هیچ یک از هوش مصنوعی درگیر در آن نیازی به کلی بودن ندارد، و دیدن پتانسیل هوش مصنوعی نسل فعلی برای ایجاد انواع خطراتی که CAIS نگران آن است، چندان طولانی نیست. شما ممکن است نظرات خود را در مورد این که نرم افزار واقعاً مخرب یا توانا باشد یا خواهد بود و واقعاً چه چیزی می تواند به دست آورد، داشته باشید.
استدلال CAIS میگوید، بررسی و رسیدگی به تأثیرات منفی هوش مصنوعی که در حال حاضر احساس شدهاند، و تبدیل آن تأثیرات موجود به آیندهنگاری بسیار مهم است. هندریکس گفت: «در حالی که ما با خطرات فوری هوش مصنوعی دست و پنجه نرم می کنیم، صنعت هوش مصنوعی و دولت های سراسر جهان باید به طور جدی با خطری که هوش مصنوعی آینده می تواند وجود انسان را تهدید کند، مقابله کنند. گفت: در بیانیه ای.
جهان با موفقیت برای کاهش خطرات مربوط به جنگ هسته ای همکاری کرده است. هندریکس با فهرستی از رهبران شرکتها، دانشگاهی و فکری که از او حمایت میکنند، به همان سطح تلاش برای پرداختن به خطرات ناشی از سیستمهای هوش مصنوعی آینده نیاز است.
ماسک در کشتی نیست
امضاکنندگان دیگر عبارتند از دانشمند اصلی Google DeepMind، ایان گودفلو، فیلسوفان دیوید چالمرز و دانیل دنت، نویسنده و وبلاگ نویس سام هریس و موسیقیدان/الون ماسک سابق، گریمز. در مورد خود مرد، امضای ماسک وجود ندارد.
مدیر عامل توییتر بود در میان کسانی که یک را امضا کردند نامه سر گشاده منتشر شده توسط موسسه آینده زندگی در ماه مارس گذشته و اصرار a مکث شش ماهه در مورد آموزش سیستم های هوش مصنوعی "قدرتمندتر از GPT-4". جای تعجب نیست که امضای آلتمن مدیر عامل OpenAI وجود نداشت که نامه خاص، ظاهراً به این دلیل که مستقیماً شرکت او را فراخوانده بود.
OpenAI از آن زمان منتشر شده است هشدارهای خودش در مورد تهدیدات ناشی از هوش مصنوعی پیشرفته و خواستار ایجاد یک ناظر جهانی مشابه آژانس بین المللی انرژی اتمی برای تنظیم استفاده از هوش مصنوعی شد.
آن هشدار و تماس نظارتی، در مورد زمانبندی ضعیف تاریخی، در همان روز آلتمن مطرح شد تهدید برای بیرون کشیدن OpenAI و ChatGPT با آن از اتحادیه اروپا بر روی بلوک قانون هوش مصنوعی. قوانینی که او پشتیبانی می کند یک چیز است، اما آلتمن به بروکسل گفت که ایده آنها در مورد محدودیت هوش مصنوعی یک پل نظارتی بسیار دور است، بسیار متشکرم.
نمایندگان پارلمان اتحادیه اروپا در پاسخ کیم ون اسپارنتاک، عضو پارلمان هلندی، با بیان اینکه OpenAI به آنها دیکته نمیشود و اینکه اگر شرکت نتواند قوانین اساسی حاکمیت و شفافیت را رعایت کند، «سیستمهای آنها برای بازار اروپا مناسب نیستند» اظهار داشت.
ما از OpenAI برای توضیح در مورد موقعیت(های) آلتمن خواسته ایم و در صورت شنیدن پاسخ، این داستان را به روز خواهیم کرد. ®
- محتوای مبتنی بر SEO و توزیع روابط عمومی. امروز تقویت شوید.
- PlatoAiStream. Web3 Data Intelligence دانش تقویت شده دسترسی به اینجا.
- ضرب کردن آینده با آدرین اشلی. دسترسی به اینجا.
- خرید و فروش سهام در شرکت های PRE-IPO با PREIPO®. دسترسی به اینجا.
- منبع: https://go.theregister.com/feed/www.theregister.com/2023/05/30/ai_human_extinction/
- : دارد
- :است
- :نه
- $UP
- 10
- a
- توانایی
- درباره ما
- غایب
- دانشگاهی
- رسیدن
- عمل
- واقعا
- اضافه
- نشانی
- پیشرفته
- پیشرفت
- نمایندگی
- AGI
- AI
- سیستم های هوش مصنوعی
- ادعا شده است
- در کنار
- قبلا
- همچنین
- در میان
- an
- و
- دیگر
- هستند
- استدلال
- دور و بر
- مصنوعی
- هوش عمومی مصنوعی
- هوش مصنوعی
- AS
- مرتبط است
- نویسنده
- خودکار
- اتوماسیون
- دور
- به عقب
- حمایت
- اساسی
- BE
- زیرا
- بودن
- میان
- ربات
- بریج
- پهن
- بروکسل
- اما
- by
- صدا
- نام
- آمد
- CAN
- توانا
- مورد
- مصیبت بار
- علت
- باعث می شود
- مشاهیر
- مرکز
- مدیر عامل شرکت
- GPT چت
- شیمیایی
- شهر:
- CO
- مبارزه با
- بیا
- شرکت
- علاقمند
- شرکت
- میتوانست
- کشور
- بسیار سخت
- CTO
- خطرات
- دانیل
- داود
- روز
- دهه
- Deepmind
- نشان دادن
- توسعه
- دیکته شده
- مستقیما
- مدیر
- کشف
- بحث و گفتگو
- اطلاعات غلط
- آواره
- do
- دارو
- کشف مواد مخدر
- هلندی
- تلاش
- رمزگذاری
- پایان
- انرژی
- استقرار
- اتر (ETH)
- EU
- اروپایی
- حتی
- تکامل یابد
- معاینه کردن
- کارشناسان
- انقراض
- بسیار
- کمی از
- مناسب
- برای
- از جانب
- آینده
- سوالات عمومی
- هوش عمومی
- جهانی
- هدف
- اهداف
- می رود
- گوگل
- حکومت
- دولت ها
- در حال رشد
- آیا
- he
- شنیدن
- خیلی
- او را
- خود را
- به لحاظ تاریخی
- چگونه
- اما
- HTTPS
- انسان
- بشریت
- انسان
- اندیشه
- if
- عدم تعادل
- فوری
- اثرات
- in
- شامل
- فرد
- افراد
- صنعت
- موسسه
- اطلاعات
- از قصد
- بین المللی
- به
- گرفتار
- صادر
- IT
- ITS
- JPG
- کیم
- رهبران
- یادگیری
- نامه
- سطح
- زندگی
- پسندیدن
- فهرست
- کوچک
- نورانی
- ماشین آلات
- باعث می شود
- ساخت
- مرد
- تولید
- مارس
- بازار
- مارتین
- ممکن است..
- MEP
- پیام
- مایکروسافت
- کاهش
- تسکین دهنده
- ML
- مدل
- ماه
- بیش
- بسیار
- مشک
- لازم
- نیاز
- ضروری
- نیازهای
- منفی
- بعد
- نه
- اکنون
- هستهای
- of
- on
- ONE
- باز کن
- OpenAI
- دیدگاه ها
- or
- دیگر
- دیگران
- خارج
- نتایج
- روی
- خود
- بیماری همه گیر
- ویژه
- گذشته
- شخص
- پیشگام
- افلاطون
- هوش داده افلاطون
- PlatoData
- سیاست
- فقیر
- پتانسیل
- قدرت
- قوی
- پیش بینی
- آماده
- اصلی
- اولویت
- منتشر شده
- دنبال کردن
- RE
- رسیدن به
- اشاره دارد
- نظر
- تنظیم کردن
- تنظیم کننده
- تقویت یادگیری
- مربوط
- محدودیت
- رویترز
- خطر
- خطرات
- دور
- قوانین
- s
- امن
- ایمنی
- سعید
- سام
- همان
- گفته
- دانشمند
- دانشمندان
- اسکات
- دیدن
- چند
- باید
- امضاکنندگان
- امضاء شده
- پس از
- مهارت ها
- So
- اجتماعی
- نرم افزار
- کسی
- صحبت کردن
- گسترش
- بیانیه
- داستان
- موفقیت
- چنین
- پشتیبانی از
- سیستم های
- گرفتن
- صورت گرفته
- فن آوری
- نسبت به
- تشکر
- که
- La
- آینده
- جهان
- شان
- آنها
- چیز
- این
- این هفته
- کسانی که
- فکر
- رهبران فکر
- تهدید
- تهدید
- زمان
- زمان
- به
- هم
- آموزش دیده
- آموزش
- شفافیت
- صادقانه
- دور زدن
- توییتر
- مدیر عامل توییتر
- دو
- انواع
- بروزرسانی
- اصرار
- us
- استفاده کنید
- استفاده
- با استفاده از
- ارزشها
- Ve
- بسیار
- جنگ
- هشدار
- بود
- نگهبان
- we
- تسلیحات
- هفته
- چی
- که
- WHO
- وسیع
- بطور گسترده
- اراده
- با
- بدون
- جهان
- نگران
- سال
- شما
- زفیرنت