گریمز با استفاده از صدای خود 50٪ سود در آهنگ های هوش مصنوعی تقسیم می کند

گریمز با استفاده از صدای خود 50٪ سود در آهنگ های هوش مصنوعی تقسیم می کند

گره منبع: 2609654

وین چانگ، کارآفرین فناوری ادعا می کند که یک ابزار هوش مصنوعی به نام LLM Shield ایجاد کرده است که از چت بات ها و مدل های زبان بزرگ (LLM) مانند ربات های گفتگو جلوگیری می کند. GPT چت از گرفتن اسرار شرکت استفاده از ابزارهای هوش مصنوعی اخیراً افزایش یافته است و این نگرانی را ایجاد کرده است که شرکت ها ممکن است در برابر نشت داده ها و شکایت های قضایی آسیب پذیر باشند.

با توجه به گزارش های سایبرهاون، تخمین زده می شود 2.3٪ از کارگران اطلاعات محرمانه شرکت را در ChatGPT قرار داده اند در حالی که 11٪ از داده های چسبانده شده به ربات چت محرمانه است.

در نتیجه، بسیاری از کسب و کارها از جمله JP Morgan Chase & Co گزارش شده است دسترسی کارمندان به ابزار را مسدود کرد.

همچنین بخوانید: آیا دفاتر متاورس در حال بازگشت هستند؟

LLM Shield برای محافظت از کسب‌وکارها و دولت‌ها از بارگذاری داده‌های حساس در ابزارهای مبتنی بر هوش مصنوعی مانند ChatGPT و شاعر.

چانگ به فاکس بیزینس گفت که وقتی ChatGPT OpenAI در ماه نوامبر به بازار عرضه شد، دید که چقدر قدرتمند خواهد بود و "خطرات بزرگ و بزرگی به همراه داشت."

او گفت: "موضوع به سرعت تشدید خواهند شد - این هم مثبت و هم منفی است."

تمرکز من در اینجا این است که می‌خواهم مطمئن شوم که می‌توانیم هوش مصنوعی را به سمتی مثبت هدایت کنیم و تا آنجا که ممکن است از منفی شدن آن جلوگیری کنیم.»

فناوری برای کنترل فناوری

LLM Shield که هفته گذشته منتشر شد، هر بار که تلاشی برای آپلود اطلاعات حساس انجام می شود، به سازمان ها هشدار می دهد. به گفته فاکس بیزینس، مدیران می‌توانند برای انواع داده‌هایی که شرکت می‌خواهد از آن محافظت کند، نرده‌های محافظ تعیین کنند.

هر گونه تلاش برای آپلود چنین اطلاعاتی باعث می شود LLM Shield به کاربران هشدار دهد که در شرف ارسال داده های حساس هستند و جزئیات را مبهم می کند تا محتوا مفید باشد اما برای انسان قابل خواندن نباشد.

انتظار می رود LLM Shield به هوشمندتر شدن خود ادامه دهد، درست مانند ابزارهای هوش مصنوعی که وظیفه محدود کردن قدرت آنها را بر عهده دارد. همچنین مانند فیلتر هرزنامه به روز می شود، بنابراین با ورود ربات های بیشتری به بازار، به طور خودکار خود را برای تقویت حفاظت به روز می کند.

به گفته چانگ، برنامه‌هایی برای انتشار نسخه شخصی برای افراد برای دانلود برای استفاده خانگی وجود دارد.

نشت داده ها باعث نگرانی شرکت ها می شود

امسال شاهد رونق استفاده از ابزارهای هوش مصنوعی توسط کسب‌وکارها بوده‌ایم، و به احتمال زیاد ما به سال 2023 به عنوان سالی که انقلاب هوش مصنوعی به طور جدی آغاز شد، نگاه خواهیم کرد.

با این حال، هجوم این ابزارها همچنین نگرانی هایی را ایجاد کرده است که کارگران ممکن است خواسته یا تصادفاً اطلاعات حساس را به ابزارهای مبتنی بر هوش مصنوعی مانند ChatGPT درز کنند.

خطر از قبل وجود دارد. سامسونگ اخیراً هنگامی که کارمندانش یک کد منبع را در ربات‌های جدید چسبانده بودند، یک سری از نشت داده‌ها را تجربه کرد، که به طور بالقوه می‌تواند اطلاعات اختصاصی را افشا کند.

به طور فزاینده ای، کارفرمایان هستند عصبی شدن در مورد اینکه چگونه کارکنان آنها ممکن است از ابزارهای هوش مصنوعی در محل کار استفاده کنند. برخی از کسب و کارها قبلاً استفاده از ChatGPT را در محل کار ممنوع کرده اند، اگرچه کارمندان هنوز راه خود را از محدودیت ها دور می کنند.

در یک یادداشت فاش شده، WALMART به کارمندان هشدار داده است که اطلاعات محرمانه را با ChatGPT به اشتراک نگذارند. این گروه گفت که قبلاً چت بات را به دلیل "فعالیتی که شرکت ما را به خطر انداخته است" مسدود کرده است.

آمازون نیز به کارمندان خود در مورد همین چالش هشدار داده است. وکیل شرکتی آن به کارمندان گفت که شرکت قبلاً نمونه هایی از پاسخ های ChatGPT را دیده است که مشابه آمازون داخلی داده است.

کارمندان یواشکی

مانند کشورهایی که ChatGPT ممنوع است اما همچنان استفاده می شود - چین به عنوان مثال، و بخش هایی از آفریقا - کارمندان از استفاده از ابزار مبتنی بر هوش مصنوعی در سازمان خود منصرف نشده اند.

A نظرسنجی کاسه ماهی در فوریه منتشر شد نشان داد که تقریباً 70٪ از کارمندان بدون اطلاع رئیس خود از ChatGPT در محل کار خود استفاده می کنند.

هاوارد تینگ، مدیر عامل Cyberhaven به Axios گفت که کارمندان همیشه راه‌هایی برای فرار از ممنوعیت شبکه‌های شرکتی و مسدود کردن دسترسی به ربات‌های گفتگو پیدا می‌کنند.

او گفت که برخی از شرکت ها معتقد بودند که کارمندان قبل از اینکه شرکت او خلاف این را به آنها بگوید، به چت بات دسترسی نداشتند.

او فاش کرد: "کاربران می توانند از یک پروکسی برای دور زدن بسیاری از این ابزارهای امنیتی مبتنی بر شبکه استفاده کنند."

تمبر زمان:

بیشتر از متانیوز