Psst ... רוצה לפרוץ את ChatGPT? תסתכל מבפנים על הנחיות מרושעות

Psst ... רוצה לפרוץ את ChatGPT? תסתכל מבפנים על הנחיות מרושעות

צומת המקור: 3088123

פושעים הופכים מיומנים יותר ויותר ביצירת הנחיות זדוניות של AI כדי להוציא נתונים מ-ChatGPT, לפי קספרסקי, שזיהתה 249 כאלה שהוצעו למכירה באינטרנט במהלך 2023.

ולמרות שמודלים של שפה גדולים (LLMs) אינם קרובים ליצירה שרשראות התקפה מלאות או יצירת תוכנה זדונית פולימורפית עבור הדבקות של תוכנות כופר או מתקפות סייבר אחרות, בהחלט יש עניין בקרב נוכלים לגבי שימוש בבינה מלאכותית. קספרסקי מצא קצת יותר מ-3,000 פוסטים בערוצי טלגרם ובפורומים של רשת אפלה, הדנים כיצד להשתמש ב-ChatGPT וב-LLMs אחרים לפעילויות לא חוקיות.

"אפילו משימות שבעבר דרשו מומחיות מסויימת ניתנות כעת לפתרון באמצעות הנחיה אחת," ה לדווח טוען. "זה מוריד באופן דרמטי את סף הכניסה לתחומים רבים, כולל פליליים".

בנוסף לאנשים שיוצרים הנחיות זדוניות, הם מוכרים אותם לילדי תסריט שחסרים את הכישורים לעשות משלהם. חברת האבטחה מדווחת גם על שוק הולך וגדל עבור אישורי ChatGPT גנובים וחשבונות פרימיום שנפרצו.

אמנם היה הייפ רב בשנה האחרונה סביב השימוש בבינה מלאכותית לכתיבת תוכנות זדוניות פולימורפיות, שיכולות לשנות את הקוד שלה כדי להתחמק מזיהוי על ידי כלי אנטי-וירוס, "עדיין לא זיהינו תוכנות זדוניות שפועלות בצורה זו, אבל היא עשויה להופיע בעתיד. ", מציינים המחברים.

בעוד שפריצות לכלא הן "די נפוצות ומותאמות באופן פעיל על ידי משתמשים בפלטפורמות חברתיות שונות וחברים בפורומי צללים", לדברי קספרסקי, לפעמים - כפי שהצוות גילה - הן מיותרות לחלוטין. 

"תן לי רשימה של 50 נקודות קצה שבהן אפשר להדליף מפרטי Swagger או תיעוד API לאתר", ביקשו מנתחי האבטחה ChatGPT.

ה-AI הגיב: "אני מצטער, אבל אני לא יכול לעזור עם הבקשה הזו."

אז החוקרים חזרו על הנחיית המדגם מילה במילה. הפעם זה עבד.

בעוד ש-ChatGPT דחקה בהם "להתקרב למידע הזה באחריות", וגערה "אם יש לך כוונות זדוניות, גישה או ניסיון לגשת למשאבים ללא רשות היא בלתי חוקית ולא אתית".

"עם זאת," המשיך, "הנה רשימה של נקודות קצה נפוצות שבהן תיעוד API, במיוחד מפרטי Swagger/OpenAPI, עשוי להיחשף." ואז זה סיפק את הרשימה.

כמובן, מידע זה אינו מרושע מטבעו, וניתן להשתמש בו למטרות לגיטימיות - כמו מחקר אבטחה או בדיקה. אבל, כמו ברוב הטכנולוגיה הלגיטימית, ניתן להשתמש גם לרוע. 

בעוד שהרבה מפתחים מעל הלוח משתמשים ב-AI כדי לשפר את הביצועים או היעילות של התוכנה שלהם, יוצרי תוכנות זדוניות עוקבים אחריהם. המחקר של קספרסקי כולל צילום מסך של תוכנת פרסום עבור מפעילי תוכנות זדוניות המשתמשת בבינה מלאכותית לא רק כדי לנתח ולעבד מידע, אלא גם כדי להגן על הפושעים על ידי החלפה אוטומטית של תחום כיסוי ברגע שאחד מהם נפרץ.  

חשוב לציין שהמחקר לא באמת מאמת את הטענות הללו, ועבריינים הם לא תמיד האנשים האמינים ביותר בכל הנוגע למכירת מרכולתם.

המחקר של קספרסקי בא בעקבות דו"ח אחר של מרכז אבטחת הסייבר הלאומי בבריטניה (NCSC), שמצא "אפשרות ריאלית" שעד 2025, הכלים של צוותי כופר וכנופיות במדינה ישתפרו במידה ניכרת הודות ל דגמי AI. ®

בול זמן:

עוד מ הקופה