שנה לאחר מכן, התחזית עבור AI גנרטיבי ב-FS

שנה לאחר מכן, התחזית עבור AI גנרטיבי ב-FS

צומת המקור: 3020456

לפני קצת יותר משנה, ChatGPT הושק. ההתרגשות, החרדה והאופטימיות הקשורים ל-AI החדש מראים מעט סימנים של ירידה. בנובמבר הודח מנכ"ל OpenAI, סם אלטמן, מתפקידו, רק כדי לחזור
כמה ימים לאחר מכן. רישי סונק אירחה את מנהיגי העולם ב-
פסגת בטיחות AI בבריטניה
, מראיין את אילון מאסק מול התכנסות של מנהיגי עולם ויזמי טכנולוגיה. מאחורי הקלעים, לפי השמועות חוקרי בינה מלאכותית קרובים לפריצות דרך עוד יותר. 

מה כל זה אומר עבור אותן תעשיות שרוצות ליהנות מבינה מלאכותית אך אינן בטוחות בסיכונים?

צורה כלשהי של למידת מכונה - מה שהיינו מכנים בינה מלאכותית - קיימת כבר מאה שנה. מאז תחילת שנות ה-1990, כלים אלה היו מרכיב תפעולי מרכזי בכמה תהליכים בנקאיים, ממשלתיים ותאגידים, בעודם נעדרים במיוחד מאחרים.

אז למה האימוץ הלא אחיד? באופן כללי, זה תלוי בסיכון. כלי בינה מלאכותית מצוינים למשימות כמו זיהוי הונאה שבהן אלגוריתמים מבוססים ובדוקים יכולים לעשות דברים שאנליסטים פשוט לא יכולים על ידי סקירת חלקים נרחבים של נתונים באלפיות שניות. זה הפך להיות
הנורמה, במיוחד משום שלא חיוני להבין כל החלטה והחלטה לפרטי פרטים.

תהליכים אחרים היו עמידים יותר בפני שינויים. בדרך כלל, זה לא בגלל שאלגוריתם לא יכול לעשות יותר טוב, אלא בגלל שבתחומים כמו ניקוד אשראי או גילוי הלבנת הון - הפוטנציאל להטיות בלתי צפויות לזחול אינו מתקבל על הדעת.
זה חריף במיוחד בניקוד האשראי כאשר הלוואה או משכנתא עלולות להידחות עקב מאפיינים לא פיננסיים - כולל הטיות גזעיות.

בעוד שהאימוץ של טכניקות AI ישנות יותר מתקדם שנה אחר שנה, הגעתו של AI Generative, המאופיינת ב-ChatGPT, שינתה הכל. הפוטנציאל של הדגמים החדשים - טובים ורעים כאחד - הוא עצום, והפרשנות התחלקה בהתאם.
מה שברור הוא שאף ארגון לא רוצה להחמיץ את הצד ההפוך. למרות הדיבורים על סיכונים עם דגמי Generative ו-Frontier, שנת 2023 הייתה מלאה בהתרגשות לקראת המהפכה שלפנינו.

שתי מטרות

מקרה שימוש עיקרי עבור AI בתחום הפשע הפיננסי הוא זיהוי ומניעת פעילות הונאה ופשע. המאמצים מתרכזים בדרך כלל סביב שתי מטרות דומות אך שונות. אלה הם 1) סיכול פעילות הונאה - עוצרים אותך או
חברך או קרוב משפחתך מלתרמו - ו-2) ציות להנחיות הרגולטוריות הקיימות לתמיכה במניעת הלבנת הון (AML), ומלחמה במימון טרור (CFT).

היסטורית, פריסות AI ב-AML וב-CFT התמודדו עם חששות לגבי התעלמות פוטנציאלית של פעילות קריטית בהשוואה לשיטות מסורתיות מבוססות כללים. זה השתנה במהלך 5-10 השנים האחרונות, כאשר הרגולטורים יזמו שינוי על ידי עידוד חדשנות
לעזור במקרים של AML ו-CFT - מצהירה כי חדשנים ישפטו לפי התוצאות הכוללות שלהם ולא לפי כמה התראות שהוחמצו.

עם זאת, למרות השימוש במודלים של למידת מכונה במניעת הונאה בעשורים האחרונים, האימוץ ב-AML/CFT היה הרבה יותר איטי עם שכיחות של כותרות וחיזוי על פני פעולה בפועל. נראה כי הופעת הבינה המלאכותית הגנרטיבית תשתנה
המשוואה הזו באופן דרמטי.

נקודת אור אחת עבור AI בעמידה בתאימות במהלך 5 השנים האחרונות, הייתה בסינון לקוחות וצד שכנגד, במיוחד כשמדובר בכמויות העצומות של נתונים הכרוכות בסינון של מדיה רעה (הידועה גם בשם 'חדשות שליליות') באיכות גבוהה שבהן ארגונים
חפשו את הסימנים המוקדמים של סיכון בתקשורת החדשותית כדי להגן על עצמם מפני בעיות פוטנציאליות.

אופי ההקרנה בנפח גבוה מול מיליארדי מסמכים לא מובנים גרם לכך שהיתרונות של למידת מכונה ובינה מלאכותית עולים בהרבה על הסיכונים ומאפשרים לארגונים לבצע בדיקות שפשוט לא היו אפשריות
אחרת.

כעת בנקים וארגונים אחרים רוצים ללכת שלב קדימה. כאשר מודלים של דור בינה מלאכותית מתחילים להתקרב ל-AGI (בינה כללית מלאכותית) שם הם יכולים לשגר ביצועים טובים יותר מאנליסטים אנושיים, השאלה היא מתי, ולא אם, הם יכולים להשתמש בטכנולוגיה כדי
לתמוך טוב יותר בהחלטות ואולי אף לקבל את ההחלטות באופן חד צדדי.

בטיחות AI בהתאמה

פסגת הבטיחות של AI בשנת 2023 הייתה אבן דרך משמעותית בהכרה בחשיבותה של AI. הפסגה הביאה לכך ש-28 מדינות חתמו על הצהרה להמשך פגישות לטיפול בסיכוני בינה מלאכותית. האירוע הוביל לחנוכת ה

מכון בטיחות בינה מלאכותית
, אשר יתרום למחקר ושיתוף פעולה עתידיים כדי להבטיח את בטיחותו.

למרות שיש יתרונות להתמקדות בינלאומית בשיחת הבינה המלאכותית, דגמי השנאי GPT היו תחומי המיקוד העיקריים במהלך הפסגה. זה מהווה סיכון של פישוט יתר או בלבול של ספקטרום הבינה המלאכותית הרחב יותר עבור אנשים שאינם רגילים.

בינה מלאכותית אינה רק גנרטיבית וטכנולוגיות שונות מספקות מגוון עצום של מאפיינים שונים. לדוגמה, בעוד שהאופן שבו פועלת בינה מלאכותית גנרטיבית היא כמעט לחלוטין אטומה או "קופסה שחורה", חלק ניכר מה-AI המורשת יכול להציג את הסיבות לכך.
החלטות.

אם אנחנו לא רוצים ללכת אחורה עם פאניקה של AI, הרגולטורים ואחרים צריכים להבין את המורכבות. בנקים, סוכנויות ממשלתיות וחברות גלובליות חייבים להפעיל גישה מתחשבת בשימוש בינה מלאכותית. עליהם להדגיש את הבטיחות המתאימה, זהיר,
ושימוש בר הסבר כאשר הוא ממונף בתוך ומחוץ למסגרות תאימות.

הדרך קדימה

נוף התאימות דורש סקירה של תקנים לשימוש אחראי בינה מלאכותית. חיוני לקבוע שיטות עבודה מומלצות ויעדים ברורים כדי לעזור לנווט ארגונים הרחק מפתרונות בינה מלאכותית שהורכבו בחיפזון ופוגעים בדיוק. דיוק, אמינות,
וחדשנות חשובים באותה מידה כדי לצמצם יצור או מידע מוטעה פוטנציאלי.

בתוך המגזר הבנקאי, נעשה שימוש בבינה מלאכותית כדי לתמוך באנליסטים של ציות שכבר נאבקים עם אילוצי זמן ואחריות רגולטורית הולכת וגוברת. בינה מלאכותית יכולה לסייע באופן משמעותי לצוותים על ידי אוטומציה של משימות ארציות, הגדלת תהליכי קבלת החלטות,
ושיפור גילוי ההונאה.

בריטניה יכולה וצריכה ליהנות מההזדמנויות האחרונות. עלינו לטפח מערכת אקולוגית של חדשנות עם פתיחות לחדשנות בינה מלאכותית בתחומי הפינטק, ה-Rightch ומעבר לכך. בהירות מהממשלה וממנהיגי המחשבה בנושא בינה מלאכותית המותאמת ליישומים מעשיים
בתעשייה הוא המפתח. עלינו גם להיות פתוחים לקבל בברכה בוגרים חדשים ממאגר הכישרונות הגלובלי ההולך וגדל עבור בינה מלאכותית כדי לחזק את מעמדה של המדינה בפתרונות חלוצים מונעי בינה מלאכותית ולשלב אותם בצורה חלקה. בתוך שינוי בתעשייה, תעדוף וגיבוי
פריסת בינה מלאכותית אחראית היא חיונית למאבק המתמשך המוצלח נגד כל ההיבטים של הפשע הפיננסי.

בול זמן:

עוד מ פינקסטרה