אקט האיזון: ערך המומחיות האנושית בעידן הבינה המלאכותית הגנרטיבית - DATAVERSITY

אקט האיזון: ערך המומחיות האנושית בעידן הבינה המלאכותית הגנרטיבית - DATAVERSITY

צומת המקור: 3052574

בני אדם נחשבים לחוליה החלשה ביותר בארגון בכל הנוגע לביטחון. בצדק, כמו כלפי מעלה של 95% מאירועי אבטחת סייבר נגרמים מטעות אנוש. בני אדם הם הפכפכים, ניתנים לטעייה ובלתי ניתנים לחיזוי, מה שהופך אותם למטרות קלות עבור פושעי סייבר המחפשים להיכנס למערכות של ארגונים.  

זה הופך את ההסתמכות שלנו על מכונות להרבה יותר חשובה. עד לנקודה זו, הצלחנו לסמוך על מכונות שיפעלו עם קוד כאמת. למרות שניתן להתפשר עליהם באמצעות נקודות תורפה בקוד או דרך הפגמים החברתיים של המפעילים האנושיים שלהם, הבעיות נתקלות בדרך כלל בפתרון ברור. 

עם זאת, עם עלייתו של AI ייצור (GenAI) ו מודלים גדולים לשפה (LLMs), ארגונים מתמודדים כעת עם התקפות הנדסה חברתית שמרמות את הבינה המלאכותית לעשות דברים שהוא לא נועד לעשות. ככל שאנו מורידים יותר ל-AI, יהיה מעניין לראות את דפוסי ההתקפה החדשים הללו מתממשים.

לנוכח הדילמה הזו, זה שוב תלוי בבני האדם לנווט בנוף האבטחה המורכב והמתפתח הזה של AI. זה קורא ל-CISOs לתקשר בצורה ברורה את היתרונות כמו גם את החסרונות של AI ולהכיר ברשימה הארוכה של שיקולי אבטחה הקשורים למוצרים וליכולות המונעים ב-AI. 

יישום מהיר של AI גנרטיבי מביא אתגרי אבטחת סייבר חדשים

ראשית, בעיה נפוצה בכל הנוגע ל-GenAI ו-LLMs היא הסתמכות יתרה רחבה על תוכן שנוצר בינה מלאכותית. אמון בתוכן שנוצר בינה מלאכותית מבלי לאמת או לבדוק מידע מטעה או שגוי ללא קלט או פיקוח אנושי יכול להוביל להפצה של נתונים שגויים המודיעים על קבלת החלטות לקויה והפחתת חשיבה ביקורתית. ידוע כי LLMs הוזים, כך שחלק מהדיסאינפורמציה עשויה אפילו לא לנבוע מכוונת זדון.

באותו אופן, כמות הקוד הלא מאובטח שמוצגת בעקבות האבולוציה של GenAI תהפוך גם לאתגר משמעותי עבור CISOs, אם לא צפויה מראש. ידוע שמנועי AI כותבים קוד באגי עם פרצות אבטחה. ללא פיקוח אנושי מתאים, GenAI מעצימה אנשים ללא היסודות הטכניים המתאימים למשלוח קוד. זה מוביל לסיכון אבטחה מוגבר לאורך מחזור החיים של פיתוח התוכנה עבור ארגונים המשתמשים בכלים אלה בצורה לא נכונה.

דליפת נתונים היא בעיה רווחת נוספת. במקרים מסוימים, תוקפים יכולים להשתמש בהזרקה מהירה כדי לחלץ מידע רגיש שמודל הבינה המלאכותית למד ממשתמש אחר. פעמים רבות זה יכול להיות לא מזיק, אבל שימוש זדוני בהחלט לא מונע. שחקנים גרועים יכולים לחקור בכוונה את כלי הבינה המלאכותית בעזרת הנחיות מעוצבות בקפידה, במטרה לחלץ מידע רגיש שהכלי שנן, מה שיוביל לדליפה של מידע רגיש או סודי.

בינה מלאכותית עשויה להגדיל כמה פערי אבטחת סייבר אך יש לה פוטנציאל משמעותי לסגור אחרים

לבסוף, מובן שההפצה של GenAI ו-LLM תגרום לדחייה של חלק מהפחתת פני השטח של התעשייה שלנו מכמה סיבות. ראשית, היכולת ליצור קוד עם GenAI מורידה את הרף של מי יכול להיות מהנדס תוכנה, וכתוצאה מכך קוד חלש יותר ותקני אבטחה חלשים עוד יותר. שנית, GenAI דורש כמויות עצומות של נתונים, מה שאומר שההיקף וההשפעה של פרצות נתונים יגדלו באופן אקספוננציאלי. שלישית, כמו בכל טכנולוגיה מתפתחת, מפתחים עשויים שלא להיות מודעים לחלוטין לדרכים שבהן ניתן לנצל את היישום שלהם או לנצל לרעה. 

עם זאת, חיוני לאמץ פרספקטיבה מאוזנת. בעוד שההקלה של Generation AI ביצירת קוד עשויה לעורר חששות, היא גם מביאה תכונות חיוביות לנוף אבטחת הסייבר. לדוגמה, הוא יכול לזהות ביעילות פרצות אבטחה כגון Cross-Site Scripting (XSS) או הזרקת SQL. הטבע הכפול הזה מדגיש את חשיבותה של הבנה ניואנסית. במקום לראות בינה מלאכותית כמזיקה בלבד, היא מדגישה את הקשר המשלים בין בינה מלאכותית ומעורבות אנושית באבטחת סייבר. CISOs חייבים להבין את הסיכונים הנלווים של GenAI ו-LLMs תוך בחינת גישות ממוקדות בבני אדם כדי ליישם GenAI ולבצר את הארגונים שלהם.

בני אדם קולטים את מה שה-AI משאיר מאחור

המשימה של CISO אינה רק לפענח את המורכבות של GenAI. עליהם לסלול דרך קדימה עבור הארגון שלהם ולהדגים למנהיגות כיצד הארגון שלהם יכול להמשיך לשגשג בעולם הנשלט על ידי GenAI. 

בעוד שמשתמשי קצה אחראים לרוב לפגיעויות אבטחה רבות, אין הגנה טובה יותר לפשעי סייבר מאשר אדם מאומן היטב ובעל חשיבה אבטחה. לא משנה אילו כלי זיהוי איומים יש לארגון, פשוט אין מקום לאדם שמאחורי המסך בכל הנוגע לבדיקת תוכנה. 

ארגונים יכולים לעלות על פושעי סייבר באמצעות הכוח של פריצה אתית. בעוד שחלקם מהססים להזמין האקרים לרשת שלהם בגלל תפיסות שגויות מיושנות, מומחי אבטחת סייבר שומרי חוק הם השידוך הטוב ביותר להתמודד עם שחקנים גרועים - מכיוון שבניגוד לבינה מלאכותית, הם יכולים להיכנס לראשיהם של תוקפי הסייבר.

למעשה, האקרים כבר משלימים כלים אוטומטיים במאבק נגד פושעי סייבר, עם % 92 של האקרים אתיים אומרים שהם יכולים למצוא נקודות תורפה שסורקים לא יכולים. על ידי הסרת מסך הפריצה לתמיד, מנהיגים עסקיים יכולים לאמץ פריצה אתית ותמיכה אנושית כדי להגיע לאיזון יעיל יותר בין AI ומומחים אנושיים במלחמה בפשעי סייבר מודרניים. האחרון שלנו דוח אבטחה מבוסס האקרים מדגיש זאת, כאשר 91% מהלקוחות שלנו אמרו שהאקרים מספקים דוחות פגיעות משפיעים ובעלי ערך רב יותר מאשר בינה מלאכותית או פתרונות סריקה. ככל שה-AI ממשיך לעצב את עתידנו, קהילת ההאקרים האתיים תישאר מחויבת להבטיח שילוב בטוח שלה.

השילוב של אוטומציה עם רשת של האקרים מיומנים במיוחד פירושו שחברות יכולות לאתר פגמים קריטיים באפליקציה לפני שהם מנוצלים. כאשר ארגונים משלבים ביעילות כלי אבטחה אוטומטיים עם פריצה אתית, הם סוגרים פערים במשטח ההתקפה הדיגיטלי המתפתח כל הזמן. 

הסיבה לכך היא שבני אדם ובינה מלאכותית יכולים לעבוד יחד כדי לשפר את הפרודוקטיביות של צוות האבטחה: 

  1. סיור משטח התקפה: ארגונים מודרניים יכולים להצמיח תשתית IT נרחבת ומורכבת הכוללת מגוון של חומרה ותוכנה מורשית ובלתי מאושרת. פיתוח אינדקס כולל של נכסי IT כמו תוכנה וחומרה חשוב לצמצום פגיעויות, ייעול ניהול התיקונים וסיוע בעמידה במנדטים של התעשייה. זה גם עוזר לזהות ולנתח את הנקודות שבאמצעותן תוקף עלול להתמקד בארגון.
  2. הערכות מתמשכות: מעבר לאבטחה נקודתית, ארגונים יכולים לשלב את כושר ההמצאה של מומחי אבטחה אנושיים עם תובנות משטח התקפות בזמן אמת כדי להשיג בדיקות מתמשכות של הנוף הדיגיטלי. בדיקות חדירה מתמשכות מאפשרות לצוותי IT לצפות בתוצאות של סימולציות קבועות המציגות כיצד תיראה פריצה בסביבה הנוכחית ונקודות תורפה פוטנציאליות שבהן צוותים יכולים להסתגל בזמן אמת.
  3. שיפורים בתהליך: האקרים אנושיים מהימנים יכולים למסור לצוותי אבטחה מידע רב ערך על פגיעויות ונכסים כדי לסייע בשיפורי תהליכים.

סיכום

ככל שה-AI הגנרטיבי ממשיך להתפתח בקצב כה מהיר, CISOs חייבים למנף את ההבנה שלהם לגבי האופן שבו בני אדם יכולים לשתף פעולה כדי לשפר את אבטחת הבינה המלאכותית ולזכות בתמיכה מהדירקטוריון וצוות ההנהגה שלהם. כתוצאה מכך, לארגונים יכולים להיות כוח אדם ומשאבים מספקים להתמודד עם אתגרים אלה ביעילות. יצירת האיזון הנכון בין הטמעת בינה מלאכותית מהירה לאבטחה מקיפה באמצעות שיתוף פעולה עם האקרים אתיים מחזקת את הטיעון להשקעה בפתרונות מתאימים המונעים בינה מלאכותית.

בול זמן:

עוד מ קושי