השפעת AI על אבטחת סייבר - DATAVERSITY

ההשפעה של AI על אבטחת סייבר - DATAVERSITY

צומת המקור: 2995031

בינה מלאכותית משכה תשומת לב תקשורתית רבה לכל דבר, החל מלקיחת משרות של אנשים ועד להפצת דיסאינפורמציה והפרת זכויות יוצרים, אבל ההשפעה של AI על אבטחת הסייבר עשויה להיות הבעיה המיידית הדחופה ביותר שלה.

ההשפעה של בינה מלאכותית על צוותי אבטחה היא כפולה כצפוי. כשהוא מיושם נכון, הוא יכול להוות מכפיל כוח רב עוצמה עבור מתרגלי אבטחת סייבר, באמצעות אמצעים כמו עיבוד כמויות עצומות של נתונים במהירויות מחשב, מציאת קשרים בין נקודות מידע מרוחקות, גילוי דפוסים, זיהוי התקפות וחיזוי התקדמות התקפות. אבל, כפי שעוסקים באבטחה יודעים היטב, AI לא תמיד מיושם כראוי. היא מעצימה את מערך איומי אבטחת הסייבר הכופה ממילא, החל מתפשרת זהות ודיוג ועד לתוכנות כופר ושרשרת אספקה.

CISOs וצוותי אבטחה צריכים להבין הן את היתרונות והן את הסיכונים של AI, מה שדורש איזון מחדש מהותי של מיומנויות. מהנדסי אבטחה, למשל, חייבים להבין את היסודות של למידת מכונה, איכות והטיות מודל, רמות אמון ומדדי ביצועים. מדעני נתונים צריך ללמוד יסודות אבטחת סייבר, דפוסי תקיפה ומודל סיכונים כדי לתרום ביעילות לצוותים היברידיים.

מודלים של AI זקוקים להכשרה מתאימה כדי לסייע לאבטחת סייבר

המשימה של התמודדות עם התפשטות האיומים המונעים על ידי בינה מלאכותית מגבשת את האתגרים עבור CISOs וצוותי אבטחה שכבר עמוסים יותר מדי, שחייבים לא רק להתמודד עם קמפיינים דיוגים מתוחכמים חדשים שנוצרו על ידי מודל שפה גדול (LLM) אוהב ChatGPT, אבל עדיין צריך לדאוג לגבי שרת לא מעודכן ב-DMZ שעלול להוות איום גדול יותר.

AI, לעומת זאת, יכולה לחסוך לצוותים הרבה זמן ומאמץ בהערכת סיכונים ובזיהוי איומים. זה גם יכול לעזור בתגובה - אם כי יש לעשות זאת בזהירות. מודל בינה מלאכותית יכול לגלוש בכתף ​​אנליסטים כדי ללמוד כיצד הם מבצעים תקריות, ולאחר מכן לבצע את המשימות הללו בעצמו או לתעדף מקרים לבדיקה אנושית. אבל הצוותים צריכים להיות בטוחים שהאנשים הנכונים נותנים את הוראת הבינה המלאכותית.

לפני שנים, למשל, ערכתי ניסוי שבו גרמתי ל-10 אנליסטים ברמות מיומנות שונות לסקור 100 מקרים של חשד לחליפת נתונים. שני אנליסטים בכירים זיהו נכון את כל התוצאות החיוביות והשליליות, שלושה אנליסטים פחות מנוסים טעו כמעט בכל המקרים, והחמישה הנותרים קיבלו תוצאות אקראיות. לא משנה כמה טוב הוא מודל AI, זה יהיה חסר תועלת אם מאומן על ידי צוות כזה.

בינה מלאכותית היא כמו מכונית חזקה: היא יכולה לעשות פלאים בידיו של נהג מנוסה או נזק רב בידיו של נהג חסר ניסיון. זה תחום אחד שבו המחסור במיומנויות יכול להשפיע על השפעת אבטחת הסייבר של AI.

כיצד CTOs יכולים לבחור פתרון AI?

לאור ההייפ על AI, ארגונים עשויים להתפתות פשוט למהר לאמץ את הטכנולוגיה. אבל בנוסף לאימון נכון של בינה מלאכותית, ישנן שאלות ש-CTO צריכים לענות עליהן, החל מבעיות התאמה:

  • האם בינה מלאכותית מתאימה למערכת האקולוגית של הארגון? זה כולל את הפלטפורמה, רכיבים חיצוניים כמו מסד נתונים ומנוע חיפוש, תוכנות ורישוי חינמיים וקוד פתוח, וגם את האבטחה וההסמכות של הארגון, הגיבוי והכשל. 
  • האם בינה מלאכותית מתאימה לגודל הארגון?
  • אילו מערכי כישורים נדרשים לצוות האבטחה כדי לתחזק ולתפעל בינה מלאכותית?

CTOs גם חייבים להתייחס לשאלות ספציפיות עבור פתרון AI: 

  • אילו מהפונקציות הנטענות של מוצר AI ספציפי תואמות את היעדים העסקיים שלך?
  • האם ניתן להשיג את אותה פונקציונליות באמצעות כלים קיימים?
  • האם הפתרון אכן מזהה איומים?

על השאלה האחרונה יכולה להיות קשה לענות מכיוון שאירועי אבטחת סייבר זדוניים מתרחשים בקנה מידה זעיר בהשוואה לפעילות לגיטימית. במחקר מוגבל של הוכחה לקונספט המשתמש בנתונים חיים, כלי בינה מלאכותית עשוי לא לזהות דבר אם שום דבר לא נמצא שם. ספקים משתמשים לעתים קרובות בנתונים סינתטיים או בהתקפות Red Team כדי להדגים את היכולת של בינה מלאכותית, אך נותרת השאלה אם זה מפגין יכולת זיהוי אמיתית או פשוט מאמת את ההנחה שלפיה האינדיקטורים נוצרו.

קשה לקבוע מדוע בינה מלאכותית חושבת שמשהו היה התקפה מכיוון שאלגוריתמי בינה מלאכותית הם בעצם קופסאות שחורות, עדיין לא מסוגלים להסביר כיצד הגיעו למסקנה מסוימת - כפי שהוכח על ידי DARPA AI ניתן להסבר (XAI) תכנית.

הפחתת הסיכונים של AI

פתרון AI טוב רק כמו הנתונים שהוא עובד איתם. כדי להבטיח התנהגות אתית, יש להכשיר מודלים של AI על נתונים אתיים, לא על איסוף סיטונאי של אשפה שנמצאת ברשת העולמית. וכל מדען נתונים יודע שהפקת מערך נתונים מאוזן היטב, חסר פניות ונקי להכשרת מודל היא משימה קשה, מייגעת ולא זוהרת. 

בשל כך, מודלים של בינה מלאכותית, כולל LLMs, עשויים בסופו של דבר להיות מנוהלים בצורה דומה לאופן שבו הם ישרתו בצורה הטובה ביותר את אבטחת הסייבר - כמודלים מיוחדים (בניגוד למודלים למטרות כלליות "יודעים כל") המשרתים תחומים מסוימים ומוכשרים על נתונים שנאספו על ידי מומחים לנושא בתחום. 

הניסיון לצנזר בינה מלאכותית בתגובה לזעקה התקשורתית של הרגע לא יפתור את הבעיה. רק עבודה חרוצה ביצירת מערכי נתונים אמינים יכולה לעשות זאת. עד שחברות בינה מלאכותית - והחברות ההון סיכון שתומכות בהן - יקבלו את הגישה הזו כדרך היחידה לספק תוכן מכובד, זה זבל פנימה/זבל החוצה. 

האם פיתוח AI צריך להיות מוסדר יותר?

הפיתוח של AI יצר הרבה חששות לגיטימיים על כל דבר, החל מזיופים עמוקים ושיבוט קול ועד פישינג/וישינג/סמישינג מתקדם, רובוטים קטלניים, ואפילו האפשרות של אפוקליפסת בינה מלאכותית. אליעזר יודקובסקי, אחד השמות המוערכים ביותר בבינה כללית מלאכותית (AGI), פרסם לאחרונה קריאה ל"לסגור את הכל," אומר שהצעת הקפאת חצי שנה אינה מספיקה.

אבל אי אפשר לעצור את הפיתוח של טכנולוגיות חדשות, עובדה שהיתה ברורה עוד מימי האלכימאים בימי קדם. אז, מנקודת מבט מעשית, מה ניתן לעשות כדי למנוע מבינה מלאכותית לצמוח מכלל שליטה וכדי להפחית את הסיכון לאירוע הכחדה מונע בינה מלאכותית? התשובה היא רבים מאותן מערכות בקרה המופעלות בתחומים אחרים שיש להם פוטנציאל לנשק: 

  • מחקר שקוף. פיתוח בינה מלאכותית בקוד פתוח לא רק מניע חדשנות ודמוקרטיזציה לגישה, אלא יש לו גם יתרונות בטיחותיים רבים, החל מאיתור פגמי אבטחה וקווי פיתוח מסוכנים ועד יצירת הגנות מפני ניצול לרעה פוטנציאלי. ביג טק עד כה תומכת במאמצי קוד פתוח, אבל זה עשוי להשתנות אם התחרות תגבר. ייתכן שיהיה צורך באמצעי חקיקה כדי לשמור על גישה בקוד פתוח.
  • מכיל ניסויים. כל הניסויים עם AI מתקדם מספיק צריכים להיות בארגז חול, עם נהלי בטיחות ואבטחה נאכפים בקפדנות. אלה אינם אמצעים חסיני תקלות אבל עשויים לעשות את ההבדל בין הפרעה מקומית לאסון עולמי.
  • להרוג מתגים. כמו תרופות נוגדות וחיסונים, אמצעי נגד נגד גרסאות AI בורחות או הרסניות צריכות להיות חלק בלתי נפרד מתהליך הפיתוח. אפילו יוצרי תוכנות כופר בונים מתג Kill. 
  • קבע את אופן השימוש בו. AI היא טכנולוגיה שניתן ליישם לטובת האנושות או לנצל לרעה עם השלכות הרות אסון. רגולציה של היישומים שלה היא משימה עבור ממשלות העולם, והדחיפות גבוהה בהרבה מהצורך לצנזר את הגרסה הבאה של ChatGPT. ה חוק AI של האיחוד האירופי הוא בסיס מתומצת היטב שמטרתו למנוע שימוש לרעה מבלי לחנוק חדשנות. ארצות הברית מגילת זכויות AI והצו הביצועי האחרון בנושא AI הם פחות ספציפיים ונראה שהם מתמקדים יותר בפוליטיקלי קורקט מאשר בסוגיות של פיתוח מודלים נאותים, הכשרה והכלה. עם זאת, אמצעים אלה הם רק התחלה. 

סיכום

בינה מלאכותית מגיעה לאבטחת סייבר בין אם CISOs רוצים בכך ובין אם לא, והיא תביא יתרונות וסיכונים משמעותיים לתחום אבטחת הסייבר, במיוחד עם הגעתו בסופו של דבר של קריפטוגרפיה שלאחר הקוונטים. לכל הפחות, CISOs צריכים להשקיע את הזמן כדי להבין את היתרונות של כלים מבוססי בינה מלאכותית ואת האיומים של התקפות מונעות בינה מלאכותית. אם הם משקיעים כסף בבינה מלאכותית תלויה במידה רבה ביתרונות המוחשיים של מוצרי אבטחת בינה מלאכותית, בהשלכות המפורסמות של התקפות בינה מלאכותית ובמידה מסוימת בניסיון האישי שלהם עם ChatGPT. 

האתגר שעומד בפני CISOs הוא כיצד ליישם בינה מלאכותית ביעילות ובאחריות.

בול זמן:

עוד מ קושי