ایالات متحده، بریتانیا، استرالیا و 15 کشور دیگر دستورالعملهای جهانی را برای کمک به محافظت از مدلهای هوش مصنوعی در برابر دستکاری منتشر کردهاند و از شرکتها میخواهند که مدلهای خود را «با طراحی ایمن» کنند.
در 26 نوامبر، 18 کشور یک 20 صفحه منتشر کردند سند تشریح این که چگونه شرکتهای هوش مصنوعی باید امنیت سایبری خود را هنگام توسعه یا استفاده از مدلهای هوش مصنوعی مدیریت کنند، همانطور که ادعا میکنند «امنیت اغلب میتواند یک ملاحظات ثانویه» در صنعت پرسرعت باشد.
این دستورالعملها عمدتاً شامل توصیههای عمومی مانند حفظ یک بند محکم بر روی زیرساخت مدل هوش مصنوعی، نظارت بر هرگونه دستکاری در مدلها قبل و بعد از انتشار، و آموزش کارکنان در مورد خطرات امنیت سایبری بود.
خبر هیجان انگیز! ما به نیروها پیوستیم @NCSC و 21 شریک بین المللی برای توسعه "راهنمای توسعه سیستم هوش مصنوعی ایمن"! این یک همکاری عملیاتی برای هوش مصنوعی ایمن در عصر دیجیتال است: https://t.co/DimUhZGW4R#AIISafety #SecureByDesign pic.twitter.com/e0sv5ACiC3
- آژانس امنیت سایبری و امنیت زیرساخت (@CISAgov) نوامبر 27، 2023
موارد بحث برانگیز خاصی در فضای هوش مصنوعی ذکر نشده است، از جمله اینکه چه کنترل هایی باید در مورد استفاده از آن وجود داشته باشد مدل های تولید کننده تصویر و جعلی های عمیق یا روش های جمع آوری داده ها و استفاده در مدل های آموزشی - مسئله ای که دیده می شود چندین شرکت هوش مصنوعی شکایت کردند در مورد ادعاهای نقض حق چاپ
الخاندرو مایورکاس، وزیر امنیت داخلی ایالات متحده، گفت: "ما در نقطه عطف توسعه هوش مصنوعی قرار داریم، که ممکن است مهم ترین فناوری زمان ما باشد." گفت: در یک بیانیه. "امنیت سایبری برای ساختن سیستم های هوش مصنوعی ایمن، ایمن و قابل اعتماد کلیدی است."
این دستورالعمل ها از دیگر ابتکارات دولتی که بر هوش مصنوعی تأثیر می گذارد، از جمله دولت ها و شرکت های هوش مصنوعی پیروی می کند نشست برای اجلاس ایمنی هوش مصنوعی در اوایل ماه جاری در لندن برای هماهنگی توافقنامه توسعه هوش مصنوعی.
در همین حال، اتحادیه اروپا است هش کردن جزئیات قانون هوش مصنوعی خود که بر فضا نظارت خواهد کرد و جو بایدن، رئیس جمهور ایالات متحده، در ماه اکتبر فرمان اجرایی صادر کرد که استانداردهایی را برای ایمنی و امنیت هوش مصنوعی تعیین کرد - هرچند هر دو پس بک را دیده اند از صنعت هوش مصنوعی ادعا می کنند که می توانند نوآوری را خفه کنند.
سایر امضاکنندگان دستورالعمل جدید "ایمن بر اساس طراحی" عبارتند از کانادا، فرانسه، آلمان، اسرائیل، ایتالیا، ژاپن، نیوزلند، نیجریه، نروژ، کره جنوبی و سنگاپور. شرکتهای هوش مصنوعی، از جمله OpenAI، Microsoft، Google، Anthropic و Scale AI نیز در توسعه دستورالعملها مشارکت داشتند.
مجله: AI Eye: استفاده واقعی از هوش مصنوعی در کریپتو، رقیب GPT-4 گوگل، لبه هوش مصنوعی برای کارمندان بد
- محتوای مبتنی بر SEO و توزیع روابط عمومی. امروز تقویت شوید.
- PlatoData.Network Vertical Generative Ai. به خودت قدرت بده دسترسی به اینجا.
- PlatoAiStream. هوش وب 3 دانش تقویت شده دسترسی به اینجا.
- PlatoESG. کربن ، CleanTech، انرژی، محیط، خورشیدی، مدیریت پسماند دسترسی به اینجا.
- PlatoHealth. هوش بیوتکنولوژی و آزمایشات بالینی. دسترسی به اینجا.
- منبع: https://cointelegraph.com/news/us-britain-countries-ink-ai-cybersecurity-guidelines-secure-by-design
- :است
- ٪۱۰۰
- 26
- 27
- a
- عمل
- عمل
- پس از
- سن
- نمایندگی
- توافق
- AI
- قانون هوش مصنوعی
- مدل های هوش مصنوعی
- سیستم های هوش مصنوعی
- همچنین
- an
- و
- و زیرساخت
- آنتروپیک
- هر
- هستند
- دور و بر
- مصنوعی
- هوش مصنوعی
- AS
- At
- استرالیا
- بد
- BE
- قبل از
- بودن
- بایدن
- هر دو
- بریتانیا
- بنا
- by
- CAN
- Canada
- معین
- ادعا کرد که
- مدعی
- ادعای
- ائتلاف
- Cointelegraph
- همکاری
- مجموعه
- شرکت
- دارای اهمیت
- کمک
- گروه شاهد
- مختصات
- حق چاپ
- نقض قوانین حق تکثیر
- میتوانست
- کشور
- عضو سازمانهای سری ومخفی
- امنیت سایبری
- امنیت سایبری و آژانس امنیت زیرساخت
- داده ها
- عمیق
- طرح
- توسعه
- در حال توسعه
- پروژه
- دیجیتال
- عصر دیجیتال
- پیش از آن
- لبه
- EU
- اروپایی
- اتحادیه اروپا
- اجرایی
- دستور اجرایی
- چشم
- سریع گام
- شرکت ها
- به دنبال
- برای
- نیروهای
- فرانسه
- از جانب
- سوالات عمومی
- آلمان
- جهانی
- گوگل
- گوگل
- دولت
- دولت ها
- دستورالعمل ها
- دسته
- آیا
- کمک
- وطن
- امنیت میهن
- چگونه
- HTTPS
- in
- شامل
- از جمله
- صنعت
- تورم
- نقطه عطف
- شالوده
- نقض
- ابتکارات
- ابداع
- اطلاعات
- بین المللی
- اسرائيل
- موضوع
- صادر
- مسائل
- ایتالیا
- ITS
- ژاپن
- جو
- جو بایدن
- پیوست
- JPG
- کلید
- پادشاهی
- کشور کره
- لندن
- نگهداری
- ساخت
- ممکن است..
- ذکر شده
- روش
- مایکروسافت
- مدل
- نظارت بر
- ماه
- اکثر
- اغلب
- NCSC
- جدید
- نیوزیلند
- نیجریه
- نروژ
- نوامبر
- اکتبر
- of
- غالبا
- on
- OpenAI
- قابل استفاده
- or
- سفارش
- دیگر
- ما
- خارج
- طرح کلی
- نظارت
- شرکای
- افلاطون
- هوش داده افلاطون
- PlatoData
- نقطه
- ممکن
- رئيس جمهور
- رئیس جمهور
- محافظت از
- واقعی
- توصیه
- آزاد
- منتشر شد
- خطرات
- رقیب
- s
- امن
- ایمنی
- ایمنی و امنیت
- مقیاس
- مقیاس Ai
- ثانوی
- دبیر
- امن
- تیم امنیت لاتاری
- مشاهده گردید
- تنظیم
- باید
- سنگاپور
- جنوب
- کره جنوبی
- فضا
- کارکنان
- استانداردهای
- بیانیه
- ایالات
- خفه کردن
- چنین
- سیستم
- سیستم های
- فن آوری
- پیشرفته
- که
- La
- شان
- آنجا.
- آنها
- این
- اگر چه؟
- زمان
- به
- آموزش
- قابل اعتماد
- توییتر
- ما
- اتحادیه
- متحد
- انگلستان
- ایالات متحده
- اصرار
- us
- استفاده کنید
- استفاده
- با استفاده از
- هشدارها
- we
- وزن کن
- خوب
- بود
- چی
- چه زمانی
- که
- اراده
- با
- زلال
- زفیرنت