נלחם בבינה מלאכותית עם ניטור הונאה של AI עבור יישומי Deepfake - KDnuggets

נלחם בבינה מלאכותית עם ניטור הונאה של AI עבור יישומי Deepfake - KDnuggets

צומת המקור: 2667255
נלחם בבינה מלאכותית עם ניטור הונאה של AI עבור יישומי Deepfake
תמונה על ידי טימה מירושניצ'נקו
 

Deepfakes הם נושא חשוב לשיחה בקהילת מדעי הנתונים כבר כמה שנים. עוד בשנת 2020, סקירת הטכנולוגיה של MIT טען שזיופים עמוקים הגיעו ל"נקודת המפנה שלהם לשימוש מיינסטרים".

הנתונים בהחלט מגבים את זה. ה Wall Street Journal דיווח כי פחות מ-10,000 זיופים עמוקים נמצאו באינטרנט בשנת 2018. המספרים הללו מגיעים כעת למיליונים, וישנן דוגמאות רבות מהחיים האמיתיים של זיופים עמוקים המשמשים הן כדי לבלבל ולהודיע ​​לא נכון והן כדי להנציח הונאה פיננסית. 

טכניקות Deepfake בסך הכל מספקות לפושעי סייבר אפשרויות מתוחכמות רבות.

הם חורגים הרבה מעבר ליכולת להכניס את דמותו של ידוען לחומר פרסומי עבור הצעת ביטקוין "שלא ניתן לפספס", מה שמתברר – כמובן – כהונאה. סרטוני Deepfake, במיוחד, נמצאים על הרדאר של הרמאים. הם מספקים להם דרך לעבור בדיקות אוטומטיות של תעודות זהות ו-KYC והוכחו כיעילים בצורה מפחידה.

בחודש מאי 2022, הסף דיווח כי "מבחני חיים" המשמשים בנקים ומוסדות אחרים כדי לעזור לאמת את זהות המשתמשים יכולים להיות שולל בקלות על ידי זיופים עמוקים. המחקר הקשור מצא כי 90% ממערכות אימות הזיהוי שנבדקו היו פגיעות.

אז מה התשובה? האם אנו נכנסים לעידן שבו פושעי סייבר יכולים להשתמש בקלות בטכנולוגיה מזויפת עמוקה כדי להערים על אמצעי האבטחה בהם משתמשים מוסדות פיננסיים? האם עסקים כאלה יצטרכו לבטל את המערכות האוטומטיות שלהם ולחזור לבדיקות אנושיות ידניות?

התשובה הפשוטה היא "כנראה שלא". בדיוק כפי שפושעים יכולים לעשות שימוש בגלישה פנימה התקדמות בינה מלאכותית, כך גם יכולות החברות שאליהן הם מכוונים. כעת נראה כיצד עסקים פגיעים יכולים להילחם בבינה מלאכותית עם בינה מלאכותית.

זיופים עמוקים מיוצרים באמצעות מגוון טכניקות של בינה מלאכותית, כגון:

  • רשתות יריבות גנריות (GAN) 
  • זוגות מקודד/מפענחים
  • דגמי תנועה מסדר ראשון

טכניקות אלו עשויות, על פניו, להישמע כמו הנחלה הבלעדית של קהילת למידת המכונה, עם חסמי כניסה גבוהים וצורך בידע טכני מומחה. עם זאת, כמו אלמנטים אחרים של AI, הם הפכו נגישים הרבה יותר עם הזמן.

כלים מדף במחירים נמוכים מאפשרים כעת למשתמשים שאינם טכניים ליצור זיופים עמוקים, בדיוק כפי שכל אחד יכול להירשם ל-OpenAI ולבדוק את היכולות של ChatGPT.

כבר ב-2020, הפורום הכלכלי העולמי דיווח כי העלות של ייצור "חדיש"זיוף עמוק הוא מתחת ל-30,000 דולר. אבל בשנת 2023, פרופסור מבית הספר וורטון איתן מוליק חשף, באמצעות פוסט טוויטר ויראלי, שהוא הפיק סרטון מזויף עמוק של עצמו מעביר הרצאה תוך פחות משש דקות.

ההוצאה הכוללת של מוליק הייתה 10.99 דולר. הוא השתמש בשירות בשם ElevenLabs כדי לחקות את הקול שלו כמעט בצורה מושלמת, בעלות של $5. שירות נוסף בשם D-ID, במחיר של 5.99 דולר לחודש, יצר סרטון המבוסס על תסריט ותצלום בודד בלבד. הוא אפילו השתמש ב-ChatGPT כדי ליצור את התסריט עצמו.

כאשר החלו להופיע זיופים עמוקים, ההתמקדות העיקרית הייתה בסרטונים פוליטיים מזויפים (ופורנוגרפיה מזויפת). מאז, העולם ראה:

  • BuzzFeedVideos יוצרים הודעת שירות ציבורית מזויפת "בהשתתפות" ברק אובמה, המתחזה על ידי השחקן ג'ורדון פיל.
  • סרטון YouTube מזויף עמוק שמתיימר להראות את דונלד טראמפ מספר סיפור על אייל.
  • סרטון מזויף עמוק של הילארי קלינטון שהוצג בסאטרדיי נייט לייב, כשהיא למעשה התחזתה על ידי חבר שחקנים.

בעוד שהדוגמאות הללו מראות את הצד ה"מהנה" של זיופים עמוקים, ואולי מספקות טלטלה של מציאות באשר ליכולות הטכנולוגיה, הרמאים לא בזבזו זמן בשימוש בהם למטרות מרושעות. 

דוגמאות מהחיים האמיתיים להונאה, המונצחת באמצעות טכניקות זיוף עמוק, הן רבות.

הפסדים עקב הונאות מזויפות עמוקות נעים בין מאות אלפים למיליונים רבים. בשנת 2021, נעשה שימוש בהונאת שיבוט קול בינה מלאכותית כדי לארגן העברות בנקאיות הונאה של 35 מיליון דולר. זה היה תמורה כספית עצומה שאפילו לא לדרוש השימוש בוידאו.

איכות פלט AI, במיוחד וידאו, יכולה להשתנות מאוד. חלק מהסרטונים מזויפים ללא ספק לבני אדם. אבל, כאמור לעיל, מערכות אוטומטיות, כמו אלו המשמשות בנקים ופינטק, התגלו בעבר בקלות שולל.

האיזון עשוי להשתנות עוד יותר ככל שיכולות הבינה המלאכותית ימשיכו להשתפר. התפתחות עדכנית היא שילוב של "זיהוי פלילי נגדי", שבו "רעש" בלתי נראה ממוקד מתווסף לזיופים עמוקים, בניסיון לרמות מנגנוני זיהוי.

אז מה אפשר לעשות?

בדיוק כפי שרמאים מבקשים להשתמש בטכנולוגיית הבינה המלאכותית העדכנית ביותר למען רווח כספי, עסקים כמו חברות טכנולוגיה עובדים קשה במציאת דרכים להשתמש בטכנולוגיה כדי לתפוס פושעים.

הנה כמה דוגמאות לחברות המשתמשות בבינה מלאכותית כדי להילחם בבינה מלאכותית:

בסוף 2022 השיקה אינטל כלי מבוסס בינה מלאכותית בשם "FakeCatcher". עם שיעור האמינות המדווח של אינטל של 96%, היא משתמשת בטכנולוגיה המכונה photoplethysmography (PPG).

הטכנולוגיה עושה שימוש במשהו שאינו קיים בסרטונים שנוצרו באופן מלאכותי: זרימת דם. מיומן על סרטונים לגיטימיים, אלגוריתם הלמידה העמוקה שלו מודד את האור שנספג או מוחזר על ידי כלי דם, אשר משנים את צבעם כאשר הדם נע בגוף.

FakeCatcher, חלק מיוזמת הבינה המלאכותית האחראית של אינטל, מתוארת כ"גלאי הזיוף העמוק הראשון בעולם בזמן אמת שמחזיר תוצאות באלפיות שניות". זוהי טכנולוגיה חדשנית שמחפשת סימנים לכך שהאדם המוצג בסרטון הוא אנושי באמת. הוא מחפש משהו שהוא "נכון", במקום לנתח נתונים כדי להדגיש משהו שהוא "שגוי". כך זה מעיד על הסבירות לזיוף.

בינתיים, מדעני המחשב של אוניברסיטת באפלו (UB) עבדו על טכנולוגיית זיהוי של זיוף עמוק משלהם. הוא משתמש במשהו ששחקני מחשב נלהבים יודעים שדורש כוח עיבוד עצום כדי לחקות: אור.

UB טוענים כי יעיל ב-94% בתמונות מזויפות, כלי הבינה המלאכותית בוחן כיצד האור משתקף בעיני המצולם. פני הקרנית פועלים כמראה, ומייצרים "דפוסים רפלקטיביים".

מחקרם של המדענים, שכותרתו "חשיפת פנים שנוצרו על ידי GAN באמצעות הבהרה לא עקבית של הקרנית", מצביע על כך ש"פרצופים מסונתזים של GAN יכולים להיחשף עם הבהרה לא עקבית של הקרנית בין שתי עיניים".

זה מציע שזה יהיה "לא טריוויאלי" עבור מערכות AI לחקות את הדגשים האמיתיים. שחקני מחשב, שלעתים קרובות משקיעים בכרטיסים הגרפיים העדכניים ביותר למעקב אחר קרניים כדי לחוות אפקטי תאורה מציאותיים, יזהו באופן אינסטינקטיבי את האתגרים כאן.

אולי האתגר הגדול ביותר לגילוי הונאה הוא משחק ה"חתול והעכבר" האינסופי בין רמאים לאלה שפועלים לסכל אותם. סביר מאוד, בעקבות הכרזות כמו אלו לעיל, שאנשים כבר עובדים על בניית טכנולוגיות שיכולות לעקוף ולנצח מנגנוני זיהוי כאלה.

זה גם דבר אחד שקיימים מנגנונים כאלה, אבל דבר אחר לראות אותם משולבים באופן שגרתי בפתרונות שבהם משתמשים עסקים. קודם לכן, התייחסנו לנתון שהציע ש-90% מהפתרונות ניתנים ל"לטעות בקלות". הסבירות היא שלפחות חלק מהמוסדות הפיננסיים עדיין משתמשים במערכות כאלה.

חכם ניטור הונאה האסטרטגיה מחייבת חברות להסתכל מעבר לזיהוי הזיופים העמוקים בעצמן. אפשר לעשות הרבה לפני רמאי מגיע מספיק רחוק למערכת כדי להשתתף בתהליך אימות מזהה מבוסס וידאו או KYC. אמצעי זהירות שמוצאים מקום מוקדם יותר בתהליך עשויים לכלול גם אלמנט של AI ולמידת מכונה.

לדוגמה, למידת מכונה יכולה לשמש הן לניטור הונאות בזמן אמת והן ליצירת ערכות כללים. אלה יכולים להסתכל על אירועי הונאה היסטוריים, לזהות דפוסים שעלולים להחמיץ בקלות על ידי אדם. עסקאות הנחשבות לסיכון גבוה יכולות להידחות על הסף, או לעבור לבדיקה ידנית עוד לפני שהגיע שלב שבו עשויה להיות בדיקת תעודת זהות - ולכן הזדמנות לרמאי לעשות שימוש בטכנולוגיית Deepfake.

ככל שמערכת מזהה פושע רשת מוקדם יותר, כך ייטב. יש פחות סיכוי שהם יכולים להנציח פשע ופחות לעסק להוציא על בדיקות נוספות. בדיקות זיהוי מבוססות וידאו הן יקרות, אפילו ללא שילוב של טכנולוגיית AI לזיהוי זיופים עמוקים.

אם ניתן יהיה לזהות רמאים לפני שהם מגיעים כל כך רחוק, עם טכניקות כמו טביעת רגל דיגיטלית, יישארו יותר משאבים זמינים כדי לייעל את הבדיקות של מקרים גבוליים יותר.

עצם טבעה של למידת מכונה צריכה להכתיב שעם הזמן היא משתפרת באיתור חריגות ובמלחמה בהונאה. מערכות המופעלות על ידי בינה מלאכותית יכולות ללמוד מדפוסים חדשים ועלולים לסנן עסקאות הונאה בשלב מוקדם בתהליך.

כשמדובר בזיופים עמוקים במיוחד, הדוגמה למעלה נותנת סיבה מסוימת לתקווה. מדענים מצאו דרך לזהות את הרוב המכריע של זיופים עמוקים באמצעות החזרי אור. התפתחויות מסוג זה מהוות צעד ניכר קדימה במניעת הונאות וחסימה ניכרת עבור פושעי סייבר.

בתיאוריה, הרבה יותר קל לפרוס טכנולוגיית זיהוי כזו מאשר לרמאים למצוא דרך לעקוף אותה - לשכפל את התנהגות האור, למשל, במהירות ובקנה מידה. נראה שמשחק ה"חתול והעכבר" יימשך לנצח, אבל לטכנולוגיה הגדולה ולפיננסים הגדולים יש את המשאבים ואת הכיסים העמוקים כדי - בתיאוריה לפחות - להישאר צעד אחד קטן קדימה.
 
 
ג'ימי פונג הוא ה-CCO של SEON ומביא את הניסיון המעמיק שלו במאבק בהונאה כדי לסייע לצוותי הונאה בכל מקום.
 

בול זמן:

עוד מ KDnuggets