قانون توازن: ارزش تخصص انسانی در عصر هوش مصنوعی مولد - DATAVERSITY

قانون توازن: ارزش تخصص انسانی در عصر هوش مصنوعی مولد - DATAVERSITY

گره منبع: 3052574

وقتی صحبت از امنیت به میان می‌آید، انسان‌ها ضعیف‌ترین حلقه در سازمان محسوب می‌شوند. به حق، همانطور که بالای 95 درصد حوادث امنیت سایبری ناشی از خطای انسانی است. انسان‌ها بی‌ثبات، خطاپذیر و غیرقابل پیش‌بینی هستند و آنها را به اهداف آسانی برای مجرمان سایبری تبدیل می‌کند که به دنبال ورود به سیستم‌های سازمان‌ها هستند.  

این امر اتکای ما به ماشین ها را بسیار مهم تر می کند. تا این مرحله، ما می‌توانستیم به ماشین‌ها اعتماد کنیم تا با کد به عنوان حقیقت کار کنند. حتی اگر می‌توان از طریق آسیب‌پذیری‌های کد یا از طریق نقص‌های اجتماعی اپراتورهای انسانی آن‌ها به خطر بیفتد، مشکلات معمولاً با یک راه‌حل واضح مواجه می‌شوند. 

با این حال، با ظهور هوش مصنوعی مولد (GenAI) و مدل های زبان بزرگ (LLM)، سازمان‌ها اکنون با حملات مهندسی اجتماعی مواجه هستند که هوش مصنوعی را فریب می‌دهد تا کارهایی را انجام دهد که قرار نبود انجام دهد. همانطور که بیشتر به هوش مصنوعی بارگذاری می کنیم، دیدن این الگوهای حمله جدید جالب خواهد بود.

در مواجهه با این معضل، بار دیگر بر عهده انسان است که در این چشم انداز امنیتی پیچیده و در حال تکامل هوش مصنوعی حرکت کند. این امر از CISO ها می خواهد تا مزایا و همچنین کاستی های هوش مصنوعی را به وضوح بیان کنند و لیست طولانی ملاحظات امنیتی مرتبط با محصولات و قابلیت های مبتنی بر هوش مصنوعی را تشخیص دهند. 

اجرای شتابزده هوش مصنوعی مولد چالش های جدیدی در امنیت سایبری به همراه دارد

برای شروع، یک مشکل رایج در مورد GenAI و LLM ها، اتکای بیش از حد به محتوای تولید شده توسط هوش مصنوعی است. اعتماد به محتوای تولید شده توسط هوش مصنوعی بدون تأیید یا بررسی اطلاعات گمراه‌کننده یا نادرست بدون دخالت یا نظارت انسانی می‌تواند منجر به انتشار داده‌های اشتباه شود که تصمیم‌گیری ضعیف و کاهش تفکر انتقادی را نشان می‌دهد. LLM ها به عنوان توهم شناخته می شوند، بنابراین برخی از اطلاعات نادرست ممکن است حتی از نیت مخرب ناشی نشوند.

در همین راستا، مقدار کد ناامنی که به دنبال تکامل GenAI معرفی می‌شود، اگر به طور فعال پیش‌بینی نشود، به چالشی مهم برای CISO تبدیل خواهد شد. موتورهای هوش مصنوعی به نوشتن کدهای باگ با آسیب پذیری های امنیتی معروف هستند. بدون نظارت انسانی مناسب، GenAI به افرادی که پایه های فنی مناسبی برای ارسال کد ندارند، قدرت می دهد. این منجر به افزایش خطر امنیتی در طول چرخه عمر توسعه نرم افزار برای سازمان هایی می شود که از این ابزارها به طور نامناسب استفاده می کنند.

نشت اطلاعات یکی دیگر از مشکلات رایج است. در برخی موارد، مهاجمان می توانند از تزریق سریع برای استخراج اطلاعات حساسی که مدل هوش مصنوعی از کاربر دیگری آموخته است استفاده کنند. اغلب اوقات این می تواند بی ضرر باشد، اما استفاده مخرب مطمئناً منع نمی شود. بازیگران بد می توانند به طور عمدی ابزار هوش مصنوعی را با دستورات دقیق ساخته شده بررسی کنند و هدفشان استخراج اطلاعات حساسی است که ابزار به خاطر سپرده است و منجر به درز اطلاعات حساس یا محرمانه شود.

هوش مصنوعی ممکن است برخی از شکاف های امنیت سایبری را افزایش دهد اما پتانسیل قابل توجهی برای بستن برخی دیگر دارد

در نهایت، قابل درک است که انتشار GenAI و LLM برخی از کاهش سطح حمله صنعت ما را به چند دلیل کاهش می دهد. اولاً، توانایی تولید کد با GenAI میله‌ای را که چه کسی می‌تواند یک مهندس نرم‌افزار باشد را کاهش می‌دهد و در نتیجه کد ضعیف‌تر و حتی استانداردهای امنیتی ضعیف‌تر ایجاد می‌شود. دوم، GenAI به مقادیر زیادی داده نیاز دارد، که به این معنی است که مقیاس و تأثیر نقض داده ها به طور تصاعدی رشد خواهد کرد. سوم، مانند هر فناوری نوظهوری، توسعه‌دهندگان ممکن است کاملاً از راه‌هایی که می‌توان از پیاده‌سازی آن‌ها سوء استفاده یا سوء استفاده کرد آگاه نبود. 

با این وجود، اتخاذ یک دیدگاه متعادل ضروری است. در حالی که تسهیل تولید کد توسط ژنرال هوش مصنوعی ممکن است نگرانی‌هایی را ایجاد کند، اما ویژگی‌های مثبتی را نیز برای چشم‌انداز امنیت سایبری به ارمغان می‌آورد. به عنوان مثال، می تواند آسیب پذیری های امنیتی مانند Cross-Site Scripting (XSS) یا SQL injection را به طور موثر شناسایی کند. این ماهیت دوگانه بر اهمیت درک دقیق تأکید می کند. به جای اینکه هوش مصنوعی را صرفاً مضر بداند، بر رابطه مکمل بین هوش مصنوعی و دخالت انسان در امنیت سایبری تأکید می کند. CISO ها باید خطرات مرتبط GenAI و LLM را درک کنند و همزمان رویکردهای انسان محور را برای پیاده سازی GenAI و تقویت سازمان های خود بررسی کنند.

انسان ها آنچه را که هوش مصنوعی پشت سر می گذارد انتخاب می کنند

CISO ها فقط وظیفه کشف پیچیدگی های GenAI را بر عهده ندارند. آنها باید راهی را برای سازمان خود هموار کنند و به رهبری نشان دهند که چگونه سازمان آنها می تواند در دنیای تحت سلطه GenAI به پیشرفت خود ادامه دهد. 

در حالی که کاربران نهایی اغلب مسئول بسیاری از آسیب پذیری های امنیتی هستند، هیچ دفاعی بهتر از یک انسان آموزش دیده و دارای تفکر امنیتی در برابر جرایم سایبری وجود ندارد. مهم نیست که یک سازمان چه ابزارهای تشخیص تهدید را در اختیار دارد، وقتی نوبت به تست نرم افزار می رسد، به سادگی نمی توان فرد پشت صفحه را جایگزین کرد. 

سازمان ها می توانند با استفاده از قدرت از مجرمان سایبری پیشی بگیرند هک اخلاقی. در حالی که برخی در دعوت هکرها به شبکه خود به دلیل تصورات غلط قدیمی مردد هستند، این کارشناسان امنیت سایبری قانونمند بهترین گزینه برای مقابله با بازیگران بد هستند – زیرا برخلاف هوش مصنوعی، آنها می توانند به درون سر مهاجمان سایبری نفوذ کنند.

در واقع، هکرها در حال تکمیل ابزارهای خودکار در مبارزه با مجرمان سایبری هستند ٪ 92 از هکرهای اخلاقی می‌گویند می‌توانند آسیب‌پذیری‌هایی را پیدا کنند که اسکنرها نمی‌توانند. رهبران کسب‌وکار می‌توانند با کنار زدن پرده هک برای همیشه، از هک اخلاقی و حمایت انسانی برای ایجاد تعادل مؤثرتر بین هوش مصنوعی و متخصصان انسانی در مبارزه با جرایم سایبری مدرن استقبال کنند. اخیر ما گزارش امنیتی مبتنی بر هکرها این موضوع را برجسته می‌کند، به طوری که 91 درصد از مشتریان ما می‌گویند که هکرها گزارش‌های آسیب‌پذیری تاثیرگذارتر و ارزشمندتری نسبت به راه‌حل‌های هوش مصنوعی یا اسکن ارائه می‌دهند. همانطور که هوش مصنوعی به شکل دادن به آینده ما ادامه می دهد، جامعه هکرهای اخلاقی به تضمین یکپارچگی ایمن خود متعهد خواهد ماند.

ترکیب اتوماسیون با شبکه‌ای از هکرهای بسیار ماهر به این معنی است که شرکت‌ها می‌توانند نقص‌های مهم برنامه را قبل از اینکه مورد بهره‌برداری قرار گیرند، مشخص کنند. هنگامی که سازمان ها به طور موثر ابزارهای امنیتی خودکار را با هک اخلاقی ترکیب می کنند، شکاف ها را در سطح حمله دیجیتالی در حال تکامل می بندند. 

این به این دلیل است که انسان ها و هوش مصنوعی می توانند برای بهبود بهره وری تیم امنیتی با یکدیگر همکاری کنند: 

  1. شناسایی سطح حمله: سازمان‌های مدرن می‌توانند زیرساخت‌های گسترده و پیچیده فناوری اطلاعات شامل انواع سخت‌افزار و نرم‌افزار مجاز و غیرمجاز ایجاد کنند. توسعه یک شاخص جامع از دارایی‌های فناوری اطلاعات مانند نرم‌افزار و سخت‌افزار برای کاهش آسیب‌پذیری‌ها، ساده‌سازی مدیریت پچ و کمک به انطباق با الزامات صنعت مهم است. همچنین به شناسایی و تجزیه و تحلیل نقاطی که مهاجم ممکن است سازمانی را هدف قرار دهد کمک می کند.
  2. ارزیابی های مستمر: فراتر از امنیت لحظه به لحظه، سازمان‌ها می‌توانند نبوغ کارشناسان امنیت انسانی را با بینش‌های سطح حمله در زمان واقعی ترکیب کنند تا به آزمایش مستمر چشم‌انداز دیجیتال دست یابند. آزمایش نفوذ مستمر به تیم‌های فناوری اطلاعات امکان می‌دهد تا نتایج شبیه‌سازی‌های ثابت را مشاهده کنند که نشان می‌دهد چگونه یک رخنه در محیط فعلی و نقاط ضعف احتمالی که در آن تیم‌ها می‌توانند در زمان واقعی خود را تطبیق دهند، نشان می‌دهد.
  3. بهبود فرآیند: هکرهای انسانی مورد اعتماد می‌توانند اطلاعات ارزشمندی در مورد آسیب‌پذیری‌ها و دارایی‌ها به تیم‌های امنیتی ارائه دهند تا به بهبود فرآیند کمک کنند.

نتیجه

از آنجایی که هوش مصنوعی مولد با چنین سرعتی به تکامل خود ادامه می دهد، CISO ها باید درک خود را از نحوه همکاری انسان ها برای افزایش امنیت هوش مصنوعی و جلب حمایت هیئت مدیره و تیم رهبری خود به کار گیرند. در نتیجه، سازمان ها می توانند کارکنان و منابع کافی برای مقابله موثر با این چالش ها داشته باشند. ایجاد تعادل مناسب بین اجرای سریع هوش مصنوعی و امنیت جامع از طریق همکاری با هکرهای اخلاقی، استدلال سرمایه گذاری در راه حل های مناسب مبتنی بر هوش مصنوعی را تقویت می کند.

تمبر زمان:

بیشتر از DATAVERSITY