Skynet אהוי? למה לצפות לסיכוני אבטחה של AI מהדור הבא

Skynet אהוי? למה לצפות לסיכוני אבטחה של AI מהדור הבא

צומת המקור: 3037761

בזמן שהחדשנות בבינה מלאכותית (AI) נמשכת במהירות, שנת 2024 תהיה זמן מכריע עבור ארגונים וגופים מנהליים לבסס תקני אבטחה, פרוטוקולים ומעקות בטיחות אחרים כדי למנוע מבינה מלאכותית להקדים אותם, מזהירים מומחי אבטחה.

מודלים של שפה גדולים (LLMs), המופעלים על ידי אלגוריתמים מתוחכמים ומערכי נתונים מסיביים, מפגינים הבנת שפה יוצאת דופן ויכולות שיחה אנושיות. אחת הפלטפורמות המתוחכמות ביותר מבין הפלטפורמות הללו עד כה היא GPT-4 של OpenAI, שמתהדרת ביכולות חשיבה ופתרון בעיות מתקדמות ומעצימה את הבוט ChatGPT של החברה. והחברה, בשיתוף עם מיקרוסופט, החלה לעבוד על GPT-5, מה שאמר המנכ"ל סם אלטמן יגיע הרבה יותר רחוק - עד כדי החזקת "אינטליגנציה על".

מודלים אלו מייצגים פוטנציאל עצום לרווחי פרודוקטיביות ויעילות משמעותיים עבור ארגונים, אך מומחים מסכימים שהגיע הזמן של התעשייה כולה לטפל בסיכוני האבטחה הגלומים כתוצאה מהפיתוח והפריסה שלהם. אכן, מחקר עדכני של Writerbuddy AI, המציעה כלי כתיבת תוכן מבוסס בינה מלאכותית, גילתה של-ChatGPT כבר היו 14 מיליארד ביקורים ומספרים.

כאשר ארגונים צועדים לקראת התקדמות ב-AI, זה "צריך להיות יחד עם שיקולים אתיים והערכות סיכונים קפדניות", אומר גל רינגל, מנכ"ל חברת הפרטיות והאבטחה המבוססת על AI MineOS.

האם AI מהווה איום קיומי?

חששות בנוגע לאבטחה עבור הדור הבא של AI החלו לחלחל במרץ, עם מכתב פתוח שנחתם על ידי כמעט 34,000 טכנולוגים מובילים שקרא להפסיק את הפיתוח של מערכות AI גנרטיביות חזקות יותר מאשר GPT-4 של OpenAI. המכתב ציין את "הסיכונים העמוקים" לחברה שהטכנולוגיה מייצגת ואת "המרוץ שיצא מכלל שליטה של ​​מעבדות בינה מלאכותית לפיתוח ופריסה של מוחות דיגיטליים חזקים יותר ויותר שאף אחד - אפילו לא יוצריהם - יכול להבין, לחזות או שליטה מהימנה."

למרות הפחדים הדיסטופיים הללו, רוב מומחי האבטחה אינם מודאגים כל כך מתרחיש יום הדין שבו מכונות הופכות חכמות יותר מבני אדם ומשתלטות על העולם.

"המכתב הפתוח ציין חששות תקפים לגבי ההתקדמות המהירה והיישומים הפוטנציאליים של AI במובן הרחב של 'האם זה טוב לאנושות'", אומר מאט ווילסון, מנהל הנדסת מכירות בחברת אבטחת הסייבר Netrix. "למרות שהן מרשימות בתרחישים מסוימים, הגרסאות הציבוריות של כלי AI לא נראות כל כך מאיימות."

מה שמדאיג היא העובדה שההתקדמות והאימוץ של AI נעים מהר מדי מכדי שהסיכונים ינוהלו כראוי, מציינים החוקרים. "אנחנו לא יכולים להחזיר את המכסה לקופסת פנדורה", מציין פטריק האר, מנכ"ל ספקית אבטחת הבינה המלאכותית SlashNext.

יתרה מכך, עצם "הניסיון לעצור את קצב החדשנות במרחב לא יעזור להפחית" את הסיכונים שהוא מציג, שיש לטפל בהם בנפרד, מציין מרקוס פאולר, מנכ"ל חברת אבטחת הבינה המלאכותית DarkTrace Federal. זה לא אומר שפיתוח AI צריך להמשיך ללא סימון, הוא אומר. להיפך, קצב הערכת הסיכונים והטמעת אמצעי הגנה מתאימים צריכים להתאים לקצב בו מתאמנים ומפותחים תלמידי חינוך LLM.

"טכנולוגיית AI מתפתחת במהירות, כך שממשלות והארגונים המשתמשים בבינה מלאכותית חייבים גם להאיץ דיונים על בטיחות בינה מלאכותית", מסביר פאולר.

סיכוני בינה מלאכותית

ישנם מספר סיכונים מוכרים ברבים לבינה מלאכותית גנרטיבית הדורשים התחשבות ורק יחמירו ככל שהדורות הבאים של הטכנולוגיה יהיו חכמים יותר. למרבה המזל של בני האדם, אף אחד מהם לא מציב עד כה תרחיש של יום הדין של מדע בדיוני שבו בינה מלאכותית זוממת להרוס את יוצריה.

במקום זאת, הם כוללים איומים מוכרים הרבה יותר, כגון דליפות נתונים, פוטנציאליים של מידע רגיש לעסק; שימוש לרעה לפעילות זדונית; ותפוקות לא מדויקות שעלולות להטעות או לבלבל את המשתמשים, ולבסוף לגרום להשלכות עסקיות שליליות.

מכיוון ש-LLMs דורשים גישה לכמויות אדירות של נתונים כדי לספק פלטים מדויקים ורלוונטיים מבחינה הקשרית, מידע רגיש עלול להיחשף בטעות או לעשות שימוש לרעה.

"הסיכון העיקרי הוא שהעובדים מאכילים אותו עם מידע רגיש לעסקים כאשר מבקשים ממנה לכתוב תוכנית או לנסח מחדש מיילים או חפיסות עסקיות המכילות את המידע הקנייני של החברה", מציין רינגל.

מנקודת מבט של מתקפת סייבר, שחקני איומים כבר מצאו אינספור דרכים לנשק ChatGPT ומערכות בינה מלאכותיות אחרות. אחת הדרכים הייתה להשתמש במודלים ליצירת פשרה עסקית מתוחכמת של דוא"ל (BEC) והתקפות פישינג אחרות, הדורשות יצירת מסרים מותאמים אישית מהונדסים חברתית המיועדים להצלחה.

"עם תוכנות זדוניות, ChatGPT מאפשרת לפושעי סייבר ליצור אינסוף וריאציות קוד כדי להישאר צעד אחד לפני מנועי זיהוי תוכנות זדוניות", אומר הר.

הזיות AI גם מהוות איום אבטחה משמעותי ומאפשרות לשחקנים זדוניים לחמש טכנולוגיה מבוססת LLM כמו ChatGPT בצורה ייחודית. הזיה בינה מלאכותית היא תגובה מתקבלת על הדעת של ה-AI שאינה מספקת, מוטה או בלתי נכונה. "תגובות בדיוניות או אחרות לא רצויות יכולות להפנות ארגונים לקבלת החלטות, תהליכים ותקשורת מטעה", מזהירה אביבה ליטן, סגנית נשיא גרטנר.

שחקני איום יכולים גם להשתמש בהזיות אלה כדי להרעיל LLMs ו"לייצר מידע מוטעה ספציפי בתגובה לשאלה", אומר מייקל ריינהארט, סגן נשיא AI בחברת אבטחת המידע Securiti. "זה ניתן להרחבה ליצירת קוד מקור פגיע, ואולי גם למודלים של צ'אט המסוגלים לכוון את המשתמשים באתר לפעולות לא בטוחות."

תוקפים יכולים אפילו להגיע רחוק לפרסם גרסאות זדוניות של חבילות תוכנה ש-LLM עשוי להמליץ ​​למפתח תוכנה, מתוך אמונה שזהו תיקון לגיטימי לבעיה. בדרך זו, תוקפים יכולים לנצל עוד יותר את ה-AI כדי לעלות התקפות שרשרת האספקה.

הדרך קדימה

ניהול סיכונים אלה ידרוש פעולה מדודה וקולקטיבית לפני שחדשנות בינה מלאכותית תחרוג מיכולתה של התעשייה לשלוט בה, מציינים מומחים. אבל יש להם גם רעיונות איך לטפל בבעיה של AI.

האר מאמין ב"להילחם בבינה מלאכותית עם Aאסטרטגיה, שבה "התקדמות בפתרונות אבטחה ואסטרטגיות לסיכול סיכונים הניזונים על ידי AI חייבות להתפתח בקצב שווה או יותר.

"הגנה על אבטחת סייבר צריכה למנף AI כדי להילחם בהצלחה באיומי סייבר באמצעות טכנולוגיית AI", הוא מוסיף. "לשם השוואה, לטכנולוגיית אבטחה מדור קודם אין סיכוי נגד התקפות אלה."

עם זאת, ארגונים צריכים גם לנקוט בגישה מדודה לאימוץ AI - כולל פתרונות אבטחה מבוססי בינה מלאכותית - כדי שלא יכניסו יותר סיכונים לסביבתם, מזהיר וילסון של נטריקס.

"תבין מה זה AI, ומה זה לא", הוא מייעץ. "אתגרי ספקים שטוענים שהם מעסיקים בינה מלאכותית כדי לתאר מה זה עושה, איך זה משפר את הפתרון שלהם ולמה זה חשוב לארגון שלך."

Rinehart של Securiti מציעה גישה דו-שכבתית להכנסת AI בהדרגה לסביבה על ידי פריסת פתרונות ממוקדים ולאחר מכן הצבת מעקות בטיחות מיד לפני חשיפת הארגון לסיכונים מיותרים.

"תחילה לאמץ מודלים ספציפיים לאפליקציה, שעשויים להיות מתוגברים על ידי בסיסי ידע, המותאמים לספק ערך במקרים שימוש ספציפיים", הוא אומר. "ואז... הטמיעו מערכת ניטור כדי להגן על המודלים הללו על ידי בדיקה מדוקדקת של הודעות אליהם ומהם בנושאי פרטיות ואבטחה."

מומחים ממליצים גם להגדיר מדיניות ונהלי אבטחה סביב בינה מלאכותית לפני פריסתה ולא כמחשבה שלאחר מכן כדי להפחית סיכונים. הם יכולים אפילו להקים קצין סיכונים AI ייעודי או כוח משימה שיפקח על תאימות.

מחוץ לארגון, התעשייה כולה חייבת גם לנקוט בצעדים להגדרת תקני אבטחה ונהלי אבטחה סביב AI שכל מי שמפתח ומשתמש בטכנולוגיה יכול לאמץ - דבר שידרוש פעולה קולקטיבית של המגזר הציבורי והפרטי בקנה מידה עולמי. , אומר פאולר של DarkTrace Federal.

הוא מצטט הנחיות לבניית מערכות AI מאובטחות פורסם בשיתוף פעולה של הסוכנות האמריקאית לאבטחת סייבר ותשתיות (CISA) והמרכז הלאומי לאבטחת סייבר בבריטניה (NCSC) כדוגמה לסוג המאמצים שאמורים ללוות את המשך האבולוציה של AI.

"בעצם", אומר ריינהארט מ-Securiti, "שנת 2024 תהיה עדה להתאמה מהירה הן של אבטחה מסורתית והן של טכניקות בינה מלאכותית מתקדמות לקראת הגנה על משתמשים ונתונים בעידן הבינה המלאכותית המתפתחת".

בול זמן:

עוד מ קריאה אפלה