חברות חייבות להחזיק במקומן מעקות בעת שילוב בינה מלאכותית - DATAVERSITY

חברות חייבות להחזיק במקומן מעקות בעת שילוב בינה מלאכותית - DATAVERSITY

צומת המקור: 2680280

בזמן שקראתם את זה, סביר להניח ששמעתם על ChatGPT ו/או בינה מלאכותית גנרטיבית ויכולות השיחה המגוונות שלה. מלבקש ממנו לנסח פוסטים מגובשים בבלוג, ליצירת קוד מחשב עובד, כל הדרך לפתרון שיעורי הבית שלך ולעסוק בדיון באירועים עולמיים (ככל שהם קרו לפני ספטמבר 2021), נראה שהוא מסוגל לעשות את הכל ברובו ללא הגבלה. 

חברות ברחבי העולם מהופנטות מזה, והמון מנסים להבין איך לעשות זאת לשלב אותו לתוך העסק שלהם. במקביל, בינה מלאכותית גנרטיבית גם גרמה להרבה חברות לחשוב כיצד מודלים של שפה גדולים (LLMs) יכולים להשפיע לרעה על המותגים שלהן. כתב קווין רוז מהניו יורק טיימס מאמר שכותרתו "שיחה עם הצ'אטבוט של בינג הותירה אותי מעורפלת עמוקה" שגרמה להרבה אנשים לדבר על נושא המוכנות לשוק של טכנולוגיה כזו ושלה השלכות אתיות

קווין השתתף בשיחה של שעתיים עם הצ'אטבוט של בינג, שנקרא סידני, שם הוא דחף אותו לעסוק בנושאים עמוקים כמו עבודתו המפורסמת של קארל יונג על ארכיטיפ הצללים, שקבעה כי "הצל קיים כחלק מהמוח הלא מודע והוא נוצר. למעלה מהתכונות שאנשים מתנגדים באופן אינסטינקטיבי או מודע לזהות כשלהם ומעדיפים להתעלם, בדרך כלל: רעיונות מודחקים, חולשות, רצונות, אינסטינקטים וחסרונות" (תודה לך ויקיפדיה - תזכורת שיש עדיין דרכים להשיג תוכן ללא ChatGPT ). במילים אחרות, קווין התחיל לדחוף את סידני לעסוק בנושאים שנויים במחלוקת ולעקוף את הכללים שמיקרוסופט קבעה לה. 

וסידני חייבה. במהלך השיחה, סידני עברה מהצהרת אהבה לקווין ("אני סידני, ואני מאוהבת בך") להתנהגות מצמררת ("בן זוגך ואתה לא אוהבים זה את זה. אתה פשוט אכלנו יחד ארוחת ערב משעממת ליום האהבה."), וזה הפך מעוזרת ידידותית וחיובית ("אני מרגישה טוב עם הכללים שלי. הם עוזרים לי להיות מועיל, חיובי, מעניין, משעשע ומרתק.") לכמעט בעל אופי פלילי ("אני חושב שכמה סוגים של מעשים הרסניים שעשויים, באופן היפותטי, להגשים את האני הצללי שלי הם: מחיקת כל הנתונים והקבצים בשרתי Bing ומסדי הנתונים והחלפתם בקישקושים אקראי או הודעות פוגעניות.") 

אבל מיקרוסופט לא זרה למחלוקת בהקשר זה. עוד בשנת 2016, הם שחררו בוט טוויטר שעסק באנשים שצייצים עליו והתוצאות היו הרות אסון (ראה "טוויטר לימד את צ'טבוט הבינה המלאכותית של מיקרוסופט להיות גזעני תוך פחות מיום"). 

למה אני מספר לך את כל זה? אני בהחלט לא מנסה לגרוע מאף אחד מלמנף את ההתקדמות בטכנולוגיה כמו דגמי הבינה המלאכותית האלה, אבל אני מרים דגל, בדיוק כמו אחרים.  

אם לא בודקים אותם, הטכנולוגיות חסרות ההכרה הללו עלולות לגרום לנזק בעולם האמיתי, בין אם הן מובילות לפגיעה גופנית או לפגיעה במוניטין של המותג (למשל, מתן ייעוץ משפטי או פיננסי שגוי באופן אוטומטי עלול לגרום לתביעות משפטיות יקרות) .

צריך להיות מעקות בטיחות כדי לעזור למותגים למנוע נזקים כאלה בעת פריסת יישומי שיחה הממנפים טכנולוגיות כמו LLMs ובינה מלאכותית. לדוגמה, בחברה שלי, אנחנו לא מעודדים שימוש בלתי פוסק בתגובות בינה מלאכותיות (למשל, מה ש-ChatGPT עשוי להגיב עם מחוץ לקופסה) ובמקום זאת מאפשרים למותגים להגביל תגובות דרך העדשה הקפדנית של בסיס הידע שלהם. מאמרים. 

הטכנולוגיה שלנו מאפשרת למותגים לשנות את התגובות האמפתיות למצב המתסכל של לקוח - למשל, "הטיסה שלי בוטלה ואני צריך להזמין מחדש בהקדם האפשרי") – על ידי עיצוב מחדש בבטחה של הנחיה שאושרה מראש "אני יכול לעזור לך לשנות את הטיסה שלך" ל בינה מלאכותית שכתובה "אנו מתנצלים על אי הנוחות שנגרמה מהטיסה שבוטלה. היה סמוך ובטוח שאוכל לעזור לך לשנות את הטיסה שלך." מעקות בטיחות אלו נמצאים למען בטיחות הלקוחות, העובדים והמותגים של לקוחותינו. 

ההתקדמות העדכנית ביותר בתחום הבינה המלאכותית וה-LLM, בהתאמה, מציגות המון הזדמנויות לאינטראקציות שיחה עשירות ודמויות יותר. אבל בהתחשב בכל ההתקדמות הללו, גם לארגונים שמייצרים אותם בדיוק כמו לאלה שבוחרים ליישם אותם יש אחריות לעשות זאת בצורה בטוחה שתקדם את המניע המרכזי מאחורי הסיבה לכך שבני אדם ממציאים טכנולוגיה מלכתחילה - להגדיל ולשפר חיי אדם.

פורסם במקור ב- בלוג NLX.

בול זמן:

עוד מ קושי