حاکمیت داده در عصر هوش مصنوعی مولد - DATAVERSITY

حاکمیت داده در عصر هوش مصنوعی مولد - DATAVERSITY

گره منبع: 2887173

مدل‌های تجاری مبتنی بر هوش مصنوعی و محصولاتی که از هوش مصنوعی مولد (GenAI) استفاده می‌کنند در طیف وسیعی از صنایع در حال گسترش هستند. موج فعلی هوش مصنوعی در حال ایجاد روش‌های جدیدی برای کار است و تحقیقات نشان می‌دهد که رهبران کسب‌وکار نسبت به پتانسیل برای بهبود بهره‌وری قابل اندازه‌گیری و خدمات مشتری، و همچنین تغییرات در نحوه ایجاد و توزیع محصولات و خدمات خوش‌بین هستند.

با توجه به شرکت من، اکثر (90٪) شرکت ها اجازه می دهند تا سطوحی از AI توسط کارمندان اتخاذ شود گزارش مدیریت داده های بدون ساختار 2023. در همین راستا، Salesforce وضعیت فناوری اطلاعات این گزارش نشان داد که 86 درصد از رهبران فناوری اطلاعات معتقدند هوش مصنوعی مولد به زودی نقش برجسته ای در سازمان آنها خواهد داشت.

با این حال، خطرات بالقوه زیادی در این شکل جدید هوش مصنوعی وجود دارد، از خطرات حریم خصوصی و امنیتی گرفته تا نگرانی‌های اخلاقی، عدم دقت، سوگیری داده‌ها و عوامل مخرب. رهبران دولت و کسب و کار در حال تجزیه و تحلیل مسائل و سنجیدن راه حل هایی برای اتخاذ ایمن و موفقیت آمیز هوش مصنوعی هستند.

این مقاله آخرین تحقیقات در مورد هوش مصنوعی را بررسی می کند داده های بدون ساختار برنامه های مدیریت و فناوری اطلاعات سازمانی 

نکات برجسته:

  • امروزه، هوش مصنوعی مولد یک استراتژی برتر تجاری و فناوری است، اما همچنین یک اولویت اصلی برای مدیران ذخیره‌سازی داده است.
  • اگرچه هوش مصنوعی مولد پتانسیل زیادی دارد، اما همچنین نگرانی‌های حاکمیت داده‌ای را در مورد حریم خصوصی، امنیت و اخلاقیات ارائه می‌کند که مانع پذیرش می‌شود.
  • شرکت‌ها اجازه استفاده از هوش مصنوعی مولد را می‌دهند، اما اغلب حفاظ‌هایی را اعمال می‌کنند که بر برنامه‌ها و داده‌هایی که کارمندان می‌توانند استفاده کنند، نظارت می‌کنند.
  • بیشتر سازمان‌ها رویکردی چند جانبه را دنبال می‌کنند که شامل ذخیره‌سازی، مدیریت داده‌ها و ابزارهای امنیتی است تا در برابر خطرات مولد هوش مصنوعی محافظت کنند.

نگرانی های پیشرو سازمانی در مورد هوش مصنوعی مولد 

نگرانی ها و خطرات مرتبط با هوش مصنوعی مولد، بسیاری از مزایای این فناوری را از بین می برد و به شرکت ها، کارمندان و مشتریان آنها آسیب می رساند. طبق نظرسنجی شرکت من، نقض حریم خصوصی و امنیت مهمترین نگرانی رهبران فناوری اطلاعات برای استفاده از هوش مصنوعی شرکتی (28٪) است، به دنبال آن عدم شفافیت منبع داده و خطرات ناشی از داده های نادرست یا جانبدارانه (21٪). 

تحقیقات دیگر نگرانی های بیشتری را نشان می دهد:

  • سه خطر اصلی هوش مصنوعی مولد، طبق نظر مدیران مورد بررسی توسط KPMG، امنیت سایبری، نگرانی های حفظ حریم خصوصی با داده های شخصی و مسئولیت هستند.
  • نگرانی های اولیه که اخیراً ذکر شده است هریس نظرسنجی کیفیت و کنترل (51%)، خطرات ایمنی و امنیت (49%)، محدود کردن نوآوری انسانی (39%) و خطای انسانی به دلیل عدم درک نحوه استفاده از ابزار و نقض تصادفی داده‌های سازمانی (38%) بود. . 
  • 64 درصد از رهبران فناوری اطلاعات که توسط Salesforce مورد بررسی قرار گرفتند، نگران اخلاق هوش مصنوعی مولد هستند.
  • حدود نیمی (49٪) از پاسخ دهندگان در یک کاغذ سفید IDC به نگرانی در مورد انتشار محتوای اختصاصی سازمان خود در مدل های زبان بزرگ ارائه دهندگان فناوری هوش مصنوعی مولد اشاره کرد.

بیایید کمی عمیق‌تر در این زمینه‌های نگران‌کننده کاوش کنیم. حریم خصوصی و امنیت بارزترین آن است. بدون استفاده از داده‌ها، کارمندان ممکن است ناخواسته داده‌های حساس شرکت مانند IP، اسرار علامت تجاری، نقشه راه محصول، تصاویر اختصاصی و داده‌های مشتری پنهان شده در فایل‌هایی را که در اختیار ابزار هوش مصنوعی قرار می‌دهند، به اشتراک بگذارند. 

یک ابزار هوش مصنوعی مولد مدل یادگیری زبان (LLM) سپس حاوی آن داده های حساس است که بعداً می تواند به کارهایی که توسط دیگران با استفاده از همان ابزار سفارش داده شده است راه پیدا کند. این داده‌ها حتی می‌توانند به حوزه عمومی راه پیدا کنند و به طور نامحدود در آنجا باقی بمانند. ویژگی‌های جدیدتر هوش مصنوعی، مانند «لینک‌های مشترک» مکالمات ایجاد شده توسط این ابزارها، افشای ناخواسته اطلاعات حساس را در صورتی که پیوند به دست افراد اشتباهی برسد، آسان‌تر می‌کند. برعکس، اگر یک کارمند یک کار مشتق شده در هوش مصنوعی حاوی داده های محافظت شده افشا شده از سازمان دیگری ایجاد کند، ممکن است با مسئولیت مواجه شود. 

یکی دیگر از مسائل مهم این است که اگر داده های مدل مغرضانه، افتراآمیز یا تأیید نشده باشند، احتمال پیامدهای نادرست یا مضر وجود دارد. همچنین موجی از شکایت های هنرمندان و نویسندگان در مورد استفاده از آثار آنها در آموزش مدل ها وجود داشته است. 

سازمان‌ها ممکن است ناخواسته مسئول انواع ادعاهای احتمالی در هنگام استفاده از مدل‌های آموزشی عمومی هوش مصنوعی باشند. این می تواند منجر به آسیب بلندمدت به روابط مشتری، شهرت برند و جریان های درآمدی شرکت شود. بر این اساس، تحقیقات KPMG نشان داد که 45 درصد از مدیران بر این باورند که اگر ابزارهای مدیریت ریسک مناسب اجرا نشود، هوش مصنوعی می تواند تأثیر منفی بر اعتماد سازمانی داشته باشد.

آماده شدن برای هوش مصنوعی

همانطور که فناوری‌های هوش مصنوعی تجاری به سرعت در حال تکامل هستند، سازمان‌های فناوری اطلاعات به استراتژی‌ها و سیاست‌های هوش مصنوعی فکر می‌کنند و به کار می‌گیرند. طبق نظرسنجی شرکت من، آمادگی برای هوش مصنوعی، در واقع اولویت اصلی ذخیره‌سازی داده رهبران فناوری اطلاعات در سال 2023 است، در مقایسه با تمرکز اولیه بر مهاجرت‌های ابری در سال 2022. تنها 26 درصد از رهبران فناوری اطلاعات گفتند که هیچ سیاستی برای کنترل هوش مصنوعی ندارند و تنها 21 درصد به هوش مصنوعی بدون محدودیت در داده ها یا برنامه هایی که کارمندان می توانند استفاده کنند اجازه می دهند. 

آماده سازی هوش مصنوعی ممکن است شامل سرمایه گذاری ها و استراتژی های زیر باشد: 

ابزار مناسب را انتخاب کنید: ارائه‌دهندگان بزرگ ابر، همراه با فروشندگان نرم‌افزار سازمانی برجسته، همگی در حال ارائه راه‌حل‌های مولد مرتبط با هوش مصنوعی برای برآورده کردن موارد استفاده مختلف و الزامات تجاری هستند. برای درک اهداف و مشخصات ریسک سازمان خود وقت بگذارید. بخشی از فرآیند انتخاب شامل تعیین این است که آیا از یک مدل هوش مصنوعی از قبل آموزش دیده با هدف عمومی مانند ChatGPT یا Google Baird استفاده خواهید کرد یا یک مدل سفارشی ایجاد کنید. این پست وبلاگ جزئیات دو رویکرد متفاوت سازمانی با الزامات امنیتی و انطباق دقیق ممکن است رویکرد توسعه سفارشی را انتخاب کند، اما این امر مستلزم سرمایه‌گذاری هنگفت در فناوری و تخصص است.

سرمایه گذاری در زیرساخت های ذخیره سازی آماده هوش مصنوعی: اجرای برنامه های هوش مصنوعی مولد نیاز به اسب بخار زیادی دارد. یک پشته محاسباتی هوش مصنوعی معمولاً از ظرفیت محاسباتی با کارایی بالا (CPU و GPU)، ذخیره سازی فلش کارآمد از شرکت هایی مانند Vast و Pure Storage و سیستم های امنیتی مناسب برای محافظت از هرگونه داده IP حساس استفاده شده در LLM تشکیل شده است. ارائه‌دهندگان برتر ابر AWS، Azure و Google چندین سرویس جدید را برای اجرای پروژه‌های هوش مصنوعی و کاهش هزینه، مصرف انرژی و پیچیدگی برای سازمان‌های فناوری اطلاعات منتشر کرده‌اند.

مفاهیم مدیریت داده را در نظر بگیرید: برای استفاده از مدیریت داده های بدون ساختار در ابزارهای هوش مصنوعی، شامل امنیت، حریم خصوصی، اصل و نسب، مالکیت و مدیریت داده های بدون ساختار یا SPLOG، پنج حوزه کلیدی باید در نظر گرفته شود. بررسی با به دست آوردن دید کامل به داده‌های فایل و شی در فضای داخلی، لبه و فضای ذخیره‌سازی ابری آغاز می‌شود. تاکتیک ها عبارتند از:

  • داده‌های حساس و اختصاصی را به یک دامنه امن و خصوصی که اشتراک‌گذاری با برنامه‌های هوش مصنوعی تجاری را محدود می‌کند، تفکیک کنید. 
  • یک دنباله حسابرسی از اینکه چه کسی چه داده‌های شرکتی را به برنامه‌های هوش مصنوعی داده است، حفظ کنید.
  • بدانید در صورت وجود، فروشندگان شما چه تضمین هایی در مورد استفاده از داده های شما در الگوریتم های هوش مصنوعی خود خواهند داد. این فراتر از فروشندگان هوش مصنوعی است، زیرا سایر برنامه های نرم افزاری سازمانی اکنون هوش مصنوعی را در پلتفرم های خود گنجانده اند.
  • از فروشندگان هوش مصنوعی بخواهید اطلاعاتی را در مورد منابع داده ای که برای LLM تهیه شده است و اینکه چگونه از سازمان شما در برابر هرگونه پیامد مضر یا تعهدات مربوط به مدل آموزشی محافظت می کنند به اشتراک بگذارند.

چهل درصد از رهبران فناوری اطلاعات در نظرسنجی شرکت من می‌گویند که رویکردی چند جانبه شامل ذخیره‌سازی، مدیریت داده‌ها و ابزارهای امنیتی را دنبال می‌کنند تا به اندازه کافی در برابر خطرات هوش مصنوعی مولد محافظت کنند. یافته‌های مرتبط عبارتند از: 35% با فروشندگان امنیتی/حکومتی موجود خود برای کاهش ریسک کار خواهند کرد. 32% می گویند که قابلیت کاهش خطر در ذخیره سازی داده ها و/یا راه حل های مدیریت داده بدون ساختار دارند. 31 درصد یک کارگروه داخلی برای توسعه و اجرای یک استراتژی ایجاد کرده اند. و 26 درصد فقط با فروشنده‌ای کار می‌کنند که دارای کنترل‌ها و حفاظت‌های کافی باشد.

فراتر از فناوری، رهبران فناوری اطلاعات و کسب‌وکار باید در آموزش و آموزش کارکنان در مورد نحوه استفاده صحیح و ایمن از فناوری‌های هوش مصنوعی برای دستیابی به اهداف شرکت و جلوگیری از انبوه مسائل مربوط به حریم خصوصی، امنیت، اخلاقیات و عدم دقت سرمایه‌گذاری کنند. با وجود افزایش 20 برابری نقش‌هایی که نیازمند مهارت‌های هوش مصنوعی هستند، طبق نظرسنجی انجام شده توسط کارفرمایان، تنها 13 درصد از کارگران در سال گذشته آموزش‌های هوش مصنوعی را دریافت کرده‌اند. رندستاد.

سال 2023 به عنوان سال تبدیل هوش مصنوعی از یک مفهوم تجربی به یک اولویت استراتژیک برای اکثر شرکت ها خواهد بود و بودجه ها بر این اساس تنظیم می شوند. اینکه چگونه رهبران فناوری اطلاعات و کسب‌وکار هوش مصنوعی را از منظر حاکمیت داده و مدیریت ریسک پیاده‌سازی می‌کنند، تعیین می‌کند که آیا این یک پیشرفت کلی مثبت برای نوع بشر خواهد بود یا خیر.

تمبر زمان:

بیشتر از DATAVERSITY