ما برای نجات بشریت از AI و ذخیره سهام هوش مصنوعی به مقررات نیاز داریم - CryptoInfoNet

ما برای نجات بشریت از AI و ذخیره سهام هوش مصنوعی به مقررات نیاز داریم - CryptoInfoNet

گره منبع: 2968903

به عنوان هوش مصنوعی (AI) تحولات صحنه مرکز فناوری را پیش می برد، سرمایه گذاران به طور طبیعی فرصت را در هوا حس می کنند. آنها همچنین بوی فرم های تازه چاپ شده و نوار قرمز رگولاتوری را می دهند که فقط منتظر است تا برش خود را بگیرد و دستگاه خروشان نوآوری هوش مصنوعی را مختل کند. اما برای کسانی که نگران این هستند که عمو سام بتواند صنعت را از طریق مقررات و محدودیت‌های جدید از بین ببرد، من می‌توانم استدلال کنم که دقیقاً برعکس اینجا صادق است: مقررات می‌تواند صنعت را از خودش نجات دهد. و با گسترش آن، مقررات بیشتر برای صنعت از سرمایه گذاران محافظت می کند، نه آسیب. 

در اکثر صنایع جدید، کلمه "تنظیمات" تابو است. اکنون صنعت هوش مصنوعی کاملاً جدید نیست. مفهوم مدرن به دهه 1950 برمی گردد، و سرمایه گذاری های خصوصی و دولتی در این زمینه طی 70 سال گذشته یا بیشتر کاهش یافته و کاهش یافته است. دهه 1980 و اوایل دهه 1990 شاهد الف چرخه رونق و رکود در سرمایه گذاری هوش مصنوعی سرمایه گذاری های دولت ژاپن در دهه 80 اولین رونق تجاری بزرگ هوش مصنوعی را آغاز کرد. با این حال، تا سال 1993، "بیش از 300 شرکت درهای خود را بستند" به عنوان حباب. با این حال، پیشرفت‌های مدرن در قدرت محاسباتی و مدل‌های زبان بزرگ (LLM) به این صنعت جان تازه‌ای بخشیده است و پتانسیل آن نه تنها سرمایه‌گذاران، بلکه قانون‌گذاران را نیز جذب می‌کند.

مقررات هوش مصنوعی: آشفتگی از منافع و خطرات

این سؤال که «تنظیمات هوش مصنوعی» باید یا حتی می‌تواند چه باشد برای سیاستمداران، سیاست‌گذاران و اخلاق‌گرایان مطرح است. آنچه سرمایه گذاران می خواهند بدانند این است که طبیعتاً چه معنایی برای پرتفوی آنها خواهد داشت. بزرگترین خطرات چیست؟ و اینجاست که قوانین و مقررات می‌توانند تا حدودی محافظت کنند و به مدیریت آن خطرات کمک کنند.

بزرگ‌ترین ریسک‌ها برای سرمایه‌گذاران به سه نگرانی اصلی خلاصه می‌شود: کلاهبرداری، حفاظت از مالکیت معنوی و حریم خصوصی. البته قوانینی از قبل در مورد کتاب ها وجود دارد که هر سه این مسائل را به صورت جداگانه بررسی می کند. با این حال، مشکل این است که هوش مصنوعی ترکیبی منحصر به فرد از هر سه خطر را نشان می دهد که بدون چارچوب، قوانین و مقررات مشخص، پیشرفت کل صنعت را تهدید می کند.

مهم ترین نگرانی در این لیست برای سرمایه گذاران تقلب است. تقریباً همه می توانند موافق باشند که پیشگیری از تقلب نقش مهم و حیاتی مقررات است.

میمون های فریبنده سیم سوار: دو مطالعه موردی

دو مطالعه موردی آینده بالقوه مقررات هوش مصنوعی، خطر تقلب و بازه‌های زمانی نظارتی که سرمایه‌گذاران باید انتظار داشته باشند را نشان می‌دهد. هر دو همچنین نشان می دهند که چگونه تقلب به اقدامات نظارتی آینده شکل می دهد.

اولین مورد، دنیای ارزهای دیجیتال و توکن های غیرقابل تعویض (NFT) است. یک صنعت بسیار جدیدتر از هوش مصنوعی، کریپتو سهم خود را از رونق و رکود و مهمتر از همه، تقلب به خود دیده است. کمیسیون بورس و اوراق بهادار (SEC) و کمیسیون تجارت فدرال (FTC) یک دهه خوب را صرف تلاش برای یافتن چگونگی تطبیق کریپتوها در طرح‌های نظارتی خود کرده‌اند. با وجود این، کنگره هنوز هیچ قانون صریح مرتبط با رمزنگاری را تصویب نکرده است برخی از تلاش ها.

در آن زمان، مبادلات متعددی افزایش یافته و سقوط کرده است. NFT ها از همه گیر شدن در سال های 2021 و 2022 به از دست دادن 95 درصد از ارزش خود، میلیاردها دلار سرمایه گذاران را با خود پایین می آورند. به طرز بدنامی، فروپاشی FTX و محاکمه اخیر Sam Bankman-Fried شامل میلیاردها دلار وجوه کلاهبرداری شده است.

دومین مطالعه موردی در اینجا مربوط به امنیت سایبری است. برخلاف کریپتو، چندین قانون اساسی در مورد کتاب‌های صنعت وجود دارد. اولین دو قانون "واقعی" امنیت سایبری عبارت بودند از قانون تقلب و سوء استفاده رایانه ای در سال 1986 و قانون جامع کنترل جرم در سال 1984. هر دو بر درک خلاقانه و نسبتاً جدیدی از "سیم" (مانند سیم های تلگراف) و کلاهبرداری سیمی متکی بودند.

در دهه‌های پس از آن، کنگره قوانینی را در مورد موضوعات سایبری تصویب کرده است نتایج مخلوط. این باعث شده است که ایالت‌ها دچار کسادی شوند. دنیای امنیت سایبری همچنین نمونه‌ای از صنعتی با منافع متقاطع عمیق را ارائه می‌کند که بسیاری از آنها بی‌شبیه به خطرات و نقاط کور نظارتی پیش روی صنعت هوش مصنوعی نیستند. یکی از قابل توجه ترین آنها حفظ حریم خصوصی است. نگرانی در مورد حریم خصوصی افراد، که معمولاً با رسانه های اجتماعی و اینترنت اشیا (IoT) مرتبط است، در مدل های آموزشی هوش مصنوعی نیز به وجود می آید.

هر دو مثال در اینجا درس هایی را برای صنعت به سرعت در حال رشد هوش مصنوعی ارائه می دهند. محیط پرخطر، با پاداش بالا و مقرراتی کم در دنیای رمزارز مملو از تقلب و بی ثباتی است. امنیت سایبری یک صنعت بسیار قدیمی‌تر و تثبیت شده است، اما محیط نظارتی، به ویژه در مورد حریم خصوصی، هنوز ناهموار است.

وضعیت فعلی مقررات هوش مصنوعی

بنابراین، برای دریافت ایده ای از این که سرمایه گذاران باید منتظر کدام یک از این مسیرهای نظارتی باشند، اجازه دهید به محیط نظارتی فعلی برای هوش مصنوعی نگاه کنیم.

با شروع با صحنه داخلی، خوب… چیز زیادی وجود ندارد، حداقل از نظر قانونی. از سوی دیگر، جو بایدن، رئیس‌جمهور آمریکا، مشغول ایجاد یک مسیر قانونی از طریق یک تعهد داوطلبانه و اخیراً و مهم‌تر از همه، یک فرمان اجرایی برجسته و فراگیر بوده است.

در اوایل سال جاری، کاخ سفید یک تعهد داوطلبانه غیر الزام آور را اعلام کرد "مدیریت خطرات ناشی از هوش مصنوعی." در میان امضا کنندگان این تعهد نام های بزرگی مانند آمازون (NASDAQ:AMZNمتا پلتفرم ها (NASDAQ:متاالفبا (NASDAQ:GOOG، NASDAQ:GOOGL) و OpenAI. دفتر سیاست علم و فناوری (OSTP) که بخشی در کاخ سفید است، یک مطلب را نیز منتشر کرده است طرحی برای منشور حقوق هوش مصنوعی. چارچوب داوطلبانه دیگری برای استفاده ایمن و اخلاقی از هوش مصنوعی.

به گفته کاخ سفید، «استفاده ایمن و اخلاقی از هوش مصنوعی» نیاز به «آزمایش پیش از استقرار» دقیق دارد و با «مشاوره از جوامع مختلف، سهامداران و کارشناسان حوزه برای شناسایی نگرانی‌ها، خطرات و تأثیرات احتمالی سیستم» ایجاد می‌شود. سیستم‌های هوش مصنوعی همچنین باید «ارزیابی و گزارش‌دهی مستقل» داشته باشند تا مطمئن شوند که در درازمدت ایمن می‌مانند.

دستور اجرایی هوش مصنوعی بایدن

در ساعات اولیه صبح 30 اکتبر، کاخ سفید جامع ترین فشار نظارتی در مورد هوش مصنوعی را اعلام کرد. هدایت این تلاش یک دستور اجرایی فراگیر (و شیک جدید سایت اینترنتی) پوشش همه چیز از ایمنی و امنیت گرفته تا حریم خصوصی، حقوق مدنی و موارد دیگر. این فرمان اجرایی بر تعهد داوطلبانه فوق الذکر و منشور حقوق هوش مصنوعی استوار است و عمدتاً بر آنچه که اکثر دستورات اجرایی انجام می دهند متمرکز است: بسیج بخش ها و آژانس های متعدد شعبه اجرایی برای عمل.

جزئیات زیادی در رابطه با تأثیر این دستور اجرایی بر صنعت وجود دارد، اما مهمترین نکات برای سرمایه گذاران عبارتند از:

1. برای تنظیم این دستورالعمل ها و سیاست های جدید، زمان زیادی طول می کشد.

2. هر مقررات خاصی که از این EO خارج شود، تا زمانی که کنگره قوانین مرتبط با هوش مصنوعی را تصویب نکند، بر اساس زمینه قانونی متزلزل ساخته خواهد شد. هنوز هم به انطباق داوطلبانه وابسته است، به استثنای یک استثنا: قانون تولید دفاعی (DPA).

استناد بایدن به DPA به همان اندازه که گیج کننده است قابل توجه است. DPA تنها قانون صریح واقعی بود که EO به آن ارجاع می‌داد و پیامدهای بالقوه قدرتمندی داشت. DPA اخیراً در زمینه همه‌گیری کووید-19 مورد استفاده قرار گرفت، اما معمولاً با تولید زمان جنگ مرتبط است. بایدن در اینجا از آن در یک زمینه کاملاً امنیت ملی استفاده می کند:

«...این فرمان از شرکت‌هایی که هر مدل بنیادی را ایجاد می‌کنند که خطری جدی برای امنیت ملی، امنیت اقتصادی ملی، یا سلامت عمومی و ایمنی ملی ایجاد می‌کند می‌خواهد باید هنگام آموزش مدل به دولت فدرال اطلاع دهند و باید نتایج همه موارد قرمز را به اشتراک بگذارند. تست های ایمنی تیم.”

مشخص نیست چه کسی تحت این "فرایند بررسی" تحت حمایت DPA قرار می گیرد زیرا سایر آژانس ها مسئولیت های نظارتی خاص تری دارند. به عنوان مثال، موسسه ملی استاندارد و فناوری (NIST) در حال توسعه استانداردهای ایمنی هوش مصنوعی و وزارت امنیت داخلی (DHS) اجرای آنها برای زیرساخت های حیاتی است. شاید مهمتر از آن، شفاف سازی در مورد اینکه کدام سازمان حتی این سیاست را اجرا خواهد کرد، مورد نیاز است.

یک نامزد قابل توجه وجود دارد که DPA به دلیل قراردادهای دفاعی موجود تقریباً قطعاً آن را پوشش خواهد داد: Palantir (NYSE:PLTR). Big Data و پیمانکار دفاعی متمرکز بر هوش مصنوعی یکی از امضاکنندگان قرارداد کاخ سفید نیست. تعهد داوطلبانه. این ممکن است بیشتر به تمایلات سیاسی محافظه‌کار-آزادی‌خواه پیتر تیل، رئیس پالانتیر و حمایت از دونالد ترامپ، رئیس‌جمهور سابق آمریکا مرتبط باشد تا رد آشکار مقررات بیشتر. با این حال، این حذف قابل توجه است زیرا Palantir برنامه های بزرگی برای آن دارد "در اختیار گرفتن کل بازار هوش مصنوعی."

در مجموع، چارچوب نظارتی تعیین شده توسط فرمان اجرایی بایدن، پیشگامانه است و کنگره را برای ساختن بقیه خانه نظارتی، به اصطلاح، آماده می کند.

متأسفانه، ممکن است مدت زیادی منتظر باشیم تا قانونگذاران شروع به «ریختن بتن» کنند.

در مورد کنگره چطور؟

فرمان اجرایی هوش مصنوعی کاخ سفید تنها دو اشاره به کنگره دارد، اما هر دو درخواست از کنگره برای تصویب قوانین دو حزبی در مورد هوش مصنوعی است (یکی به صراحت در مورد تصویب قانون حفظ حریم خصوصی بود).

بر اساس گزارش مرکز عدالت برنان، کنگره چنین کرده است تقریباً 60 قبض مربوط به هوش مصنوعی حضور در کمیته های مختلف

با این حال، از زمان نگارش این مقاله، مجلس نمایندگان به تازگی به توافق بر سر رئیس جدید مجلس پایان داده است و «ماهی بزرگ‌تری برای سرخ کردن» دارد و یک ضرب‌الاجل دیگر برای تعطیلی دولت قریب‌الوقوع و جنگ بودجه‌ای در راه است. ناگفته نماند لایحه های کمک های جنجالی اسرائیل و اوکراین و انبوهی از نگرانی های مبرم تر دیگر.

این امر دو منبع دیگر را برای مقررات هوش مصنوعی باقی می گذارد: ایالت های ایالات متحده و بازیگران بین المللی. گروه سابق، متشکل از تعداد انگشت شماری از 50 ایالت کشور است تکه تکه ای گذشت قوانین مربوطه، با هوش مصنوعی و حفظ حریم خصوصی مصرف کننده تمرکز اصلی است. در سطح بین المللی، چین پیشرو در ساخت یک مجموعه پیچیده و پیشرفته مقررات هوش مصنوعی چارچوب نظارتی جامع اتحادیه اروپا، با عنوان ساده «قانون هوش مصنوعی» انتظار می رود تا پایان سال نهایی و تصویب شود.

مقررات هوش مصنوعی و آنچه در آینده خواهد داشت

بنابراین این صنعت به سرعت در حال رشد و بالقوه بسیار مخرب کجاست؟ آیا مسیر رمزنگاری را برای تنظیم مقررات، که مملو از تقلب و بی ثباتی بوده است، طی خواهد کرد؟ یا مسیر کندتر، پایدارتر و در عین حال ناهموار امنیت سایبری. خوب، در حال حاضر، حداقل در ایالات متحده، احتمالاً ترکیبی از این دو خواهد بود.

هوش مصنوعی دارای پتانسیل مخرب و پول‌سازی است که صنعت کریپتو فقط می‌تواند رویای آن را داشته باشد. با این حال، این پتانسیل و کاربرد اصلی را نیز دارد که صنعت امنیت سایبری فراهم می کند. برای سرمایه‌گذاران، و نه اینکه در اینجا خیلی هیجان‌انگیز به نظر برسند، برای بشریت، این ترکیبی پرخطر است.

کاربردهای بالقوه بی‌شماری هوش مصنوعی در دنیای واقعی، از کشاورزی گرفته تا دفاع، مالی و مراقبت‌های بهداشتی وجود دارد. کشش فرش رمزنگاری می‌تواند سرمایه‌گذاران را از پول آنها کلاه‌برداری کند، یا یک هکر می‌تواند پول یک بانک را سرقت کند، اما خطرات ناشی از تصادفات هوش مصنوعی یا رفتار مخرب می تواند فاجعه بار باشد.

فرضیات برای اینکه چه چیزی ممکن است اشتباه باشد بی پایان هستند زیرا هوش مصنوعی بیشتر در زندگی روزمره گنجانده شده است. اما ما در حال حاضر شاهد موارد استفاده مخرب نگران کننده برای هوش مصنوعی هستیم. آغاز اخیر جنگ اسرائیل و حماس شاهد سیل اطلاعات نادرست در شبکه های اجتماعی مانند X، سابقا توییتر بود. برخی از تصاویر جعلی که به صورت آنلاین به اشتراک گذاشته می‌شوند، توسط هوش مصنوعی تولید می‌شوند و اغلب با ابزارهای قابل دسترس مانند Bing's Image Generator ایجاد می‌شوند. با پیشرفت روزافزون فناوری، شناسایی تصاویر و ویدیوهای جعلی دشوارتر خواهد شد.

ما همچنین در برابر خطراتی که زمانی فقط در داستان های علمی تخیلی یافت می شد، مانند "هوش مصنوعی سرکش" مقابله می کنیم. در حالی که یک برنامه ریز غذا با هوش مصنوعی به طور تصادفی دستور العملی برای گاز کلر پیشنهاد می کند امروز ارزش کمی خنده کردن را دارد، اگر یک هوش مصنوعی مسئول مثلاً یک مزرعه خودکار در مقیاس بزرگ باشد که به طور تصادفی (یا بدتر از آن، عمدی) یک محصول سبزیجات را آلوده می کند، بسیار کم طنز خواهد بود.

همانطور که گفته می شود: "مقررات ایمنی با خون نوشته شده است." و ما واقعاً نباید قبل از اقدام منتظر بمانیم تا خون ریخته شود.

از نظر قانونی، در حال حاضر یک پرونده "پتک" علیه گوگل وجود دارد که به گفته این شرکت، مفهوم هوش مصنوعی مولد را از بین ببرد. آنچه صنعت برای جلوگیری از این سرنوشت نیاز دارد، مقررات روشن و قابل اجرا است که می تواند هم از مردم و هم شرکت های هوش مصنوعی در برابر خشم قانونی یکدیگر محافظت کند.

به خاطر سرمایه گذاران و برای همه، باید نظارت نظارتی بیشتری بر صنعت هوش مصنوعی وجود داشته باشد، قبل از اینکه اتفاقی وحشتناک رخ دهد. فرمان اجرایی جدید کاخ سفید یک چارچوب بسیار جامع در مورد مسائل متعدد مرتبط با هوش مصنوعی ارائه می‌کند و شروع خوبی است. با این حال، بدون قوانین تصویب شده توسط کنگره که پایه و اساس محکمی را برای تنظیم‌کننده‌ها فراهم کند، در نهایت با یک آشفتگی به سبک رمزنگاری از قانون‌گذاران سردرگم مواجه خواهیم شد. این تنها منجر به سردرگمی شرکت کنندگان در بازار و سردرگمی سرمایه گذاران می شود. و با توجه به پتانسیل هوش مصنوعی بسیار عالی و خطرناک، این چیزی نیست که کسی بخواهد.

بنابراین نه، مقررات هوش مصنوعی نیست "دشمن،" همانطور که مانیفست یکی از سرمایه گذاران خطرپذیر بیان می کند، اما آنها می توانند به عنوان ریل های ایمنی عمل کنند که می توانند به محافظت از صنعت و سرمایه گذاران در برابر خطرات عظیم کمک کنند.

کاری که سرمایه گذاران اکنون باید انجام دهند

بدون حفاظ روشن، سرمایه گذاری در دنیای هوش مصنوعی یک تجارت پرخطر است. سرمایه‌گذارانی که به شدت نگران تأثیر این مقررات کنار گذاشته شده نیستند، می‌توانند روی مجموعه استارت‌آپ‌هایی که تلاش می‌کنند آن‌ها را ثروتمند کنند، شرط‌بندی مخاطره‌آمیزتری داشته باشند. یا در نمایشنامه‌های تثبیت‌شده اما نادیده‌انگیز مانند پالانتیر.

در غیر این صورت، سرمایه گذاران بهتر است ببینند کدام شرکت ها با تعهد داوطلبانه کاخ سفید "توپ بازی" می کنند. یا آنهایی که در حال تطبیق با تغییرات نظارتی بین المللی از اتحادیه اروپا و چین هستند. این شرکت ها احتمالاً یا این مقررات جدید را چیزی می دانند که می توانند با آن زندگی کنند یا چیزی که می توانند به نفع خود استفاده کنند.

در هر صورت، چکش مقررات در یک نقطه یا نقطه دیگر سقوط خواهد کرد. برای همه، نه فقط سرمایه‌گذاران، بهترین کار این است که قبل از اینکه نیمه دوم عبارت «سریع حرکت کن و چیزها را بشکن» صنعت هوش مصنوعی را بشکند، سقوط کند.

در تاریخ انتشار، اندرو بوش یک موقعیت طولانی در سهام GOOGL و AMZN داشت. نظرات بیان شده در این مقاله، نظرات نویسنده است، مشروط به دستورالعمل های انتشار InvestorPlace.com.

اندرو بوش سردبیر اخبار مالی برای InvestorPlace و دارای دو مدرک در امور بین الملل است. او در آموزش و پرورش، بخش فناوری و به عنوان یک تحلیلگر پژوهشی برای یک شرکت مشاوره ای متمرکز بر امنیت ملی مستقر در DC کار کرده است.

لینک منبع

#قانون #ذخیره #انسانیت #هوش مصنوعی.. #ذخیره #سهام

تمبر زمان:

بیشتر از CryptoInfonet