בינה מלאכותית היא אחריות

בינה מלאכותית היא אחריות

צומת המקור: 3029233

תגובה בינה מלאכותית, כלומר מודלים בסיסיים גדולים המנבאים טקסט ויכולים לסווג תמונות ודיבור, נראית יותר כמו התחייבות מאשר נכס.

עד כה, הנזק הדולר היה קל. בשנת 2019, נהג טסלה שהפעיל את רכבו בסיוע תוכנת הטייס האוטומטי של יצרנית הרכב נסע באור אדום ופגע ברכב אחר. היושבים מתו ונהג טסלה בשבוע שעבר הורה לשלם פיצוי בסך 23,000 דולר.

טסלה הוצאה בערך באותו זמן ריקול של שני מיליון כלי רכב כדי לשנות את תוכנת הטייס האוטומטי שלה בתגובה לחקירה של המינהל הלאומי לבטיחות בדרכים של ארה"ב (NHTSA) שמצאה שבקרות הבטיחות של הטייס האוטומטי חסרות.

עשרים ושלושה אלף דולר זה לא הרבה עבור שני חיים, אבל המשפחות המעורבות מנהלות תביעות אזרחיות נגד הנהג ונגד טסלה, כך שהעלות עשויה לעלות. ויש אומרים שיש לפחות תריסר תביעות משפטיות מעורב טייס אוטומטי בארה"ב.

בינתיים, בתעשיית הבריאות, UnitedHealthcare נתבע מכיוון שדגם nH Predict AI שרכשה באמצעות רכישת Navihealth ב-2020, מונע, לכאורה, טיפול נחוץ לאחר-אקוטי מקשישים מבוטחים.

נדרשת מעצורים

חברות המוכרות מודלים ושירותי בינה מלאכותית מבינות בבירור שיש בעיה. הם מתייחסים ל"מעקות בטיחות" שהוצבו סביב דגמי יסוד כדי לעזור להם להישאר בנתיב שלהם - גם אם אלה לא עובד טוב מאוד. אמצעי זהירות מהסוג הזה יהיו מיותרים אם הדגמים האלה לא מכילים חומר התעללות מינית בילדים ומגוון של תוכן רעיל אחר.

זה כאילו מפתחי AI קוראים את זה של הסופר אלכס בלכמן פוסט ויראלי על חברות טכנולוגיה המפרשות את סיפור האזהרה "אל תיצור את ה-Toment Nexus" כמפת דרכים למוצר ואמרו, "נראה לי טוב".

כמובן שיש אזכורים ספרותיים ישנים יותר שמתאימים לבינה מלאכותית, כמו Frankenstein של מרי שלי או תיבת פנדורה - התאמה טובה במיוחד בהתחשב בכך שדגמי בינה מלאכותית מכונים לעתים קרובות קופסאות שחורות בגלל חוסר השקיפות לגבי חומרי הדרכה.

עד כה, חוסר החשיבה של דוגמניות מסחריות זרועות תוכן מזיק לא גבתה מחיר גדול מדי מעסקים. יש לאחרונה לטעון מאת כריס באקה, מייסד ומנכ"ל בלסקי (נרכשה השנה על ידי חברה הקוראת לעצמה X), שצ'אטבוט של GM המשמש את סוכנות הרכב של ווטסונוויל, קליפורניה, דובר להסכים למכור Chevy Tahoe 2024 ל1 $ עם קצת הנדסה מהירה. אבל הסוכנות לא צפויה לעמוד בהתחייבות זו.

ובכל זאת, הסיכון בהסתמכות על דגמי AI מספיק Google, מיקרוסופט, ו אנתרופי הציעו לשפות לקוחות מתביעות בגין זכויות יוצרים (שהן רבות ובעיקר לא פתורות). זה לא משהו שאתה עושה אלא אם כן יש סיכוי לחבות.

תקנה

הרשויות עדיין מנסות להבין כיצד יש להעריך אחריות לבינה מלאכותית. שקול כיצד הנציבות האירופית ניסחה את הנושא כאשר היא פועלת לקראת גיבוש מסגרת חוקית ישימה לבינה מלאכותית:

"כללי החבות הנוכחיים, בפרט כללים לאומיים המבוססים על אשמה, אינם מותאמים לטיפול בתביעות פיצויים בגין נזק שנגרם על ידי מוצרים/שירותים התומכים בינה מלאכותית", הנציבות אמר [PDF] בשנה שעברה. "על פי כללים כאלה, הקורבנות צריכים להוכיח פעולה/מחדל שגוי של אדם שגרם לנזק. המאפיינים הספציפיים של בינה מלאכותית, לרבות אוטונומיה ואטימות (מה שמכונה אפקט 'הקופסה השחורה'), מקשים או יקרים באופן בלתי רגיל לזהות את האחראי ולהוכיח את הדרישות לתביעה מוצלחת לאחריות".

ולמחוקקים בארה"ב יש מוּצָע מסגרת בינה מלאכותית דו-מפלגתית כדי "להבטיח שחברות בינה מלאכותית יכולות לשאת באחריות באמצעות אכיפת גוף פיקוח וזכויות פעולה פרטיות כאשר המודלים והמערכות שלהן מפרים את הפרטיות, מפרים זכויות אזרח או גורמים נזקים שניתן לזהות בדרך אחרת".

אל תתרגש יותר מדי מלראות מנהלי חברות בינה מלאכותית מאחורי סורג ובריח: מעורבותם של מנהיגי תעשיית הבינה המלאכותית בתהליך זה מעידה שכל כללים שיופיעו יהיו יעילים בערך כמו מסגרות רגולטוריות אחרות שהושחתו על ידי לוביסטים.

אבל התרגשות היא חלק מהבעיה: יש כל כך הרבה הייפ לגבי תוכים סטוכסטיים, כפי שכונו מודלים של AI.

למודלים של AI יש ערך אמיתי בהקשרים מסוימים, כפי שציינה חברת האבטחה Socket, שהשתמשה ב-ChatGPT כדי דגל עזרה פרצות תוכנה. הם עשו פלאים לזיהוי דיבור, תרגום וזיהוי תמונות, לרעת מתמללים וחידות CAPTCHA. הם הזכירו לוותיקי התעשייה כמה כיף היה לשחק איתם אלייזה, צ'אט בוט מוקדם. הם נראים כאילו יש להם שימוש אמיתי בעבודות תומכות החלטות, בתנאי שיש אדם במעגל. והם לקחו לחשים מורכבים של שורת פקודה, עם הדגלים והפרמטרים המגוונים שלהם, והפכו אותם להנחיות טקסט מורכבות באותה מידה שיכולות להימשך לפסקאות.

אבל האוטומציה שמאפשרת AI גובה מחיר. באחרונה מאמר למגזין המסחר המדע הבדיוני Locus, הסופר והפעיל קורי דוקטורו טען, "חברות בינה מלאכותית מהמרות באופן מרומז שהלקוחות שלהן יקנו בינה מלאכותית עבור אוטומציה משמעותית, עובדי כיבוי, ויגרמו נזק פיזי, נפשי וכלכלי ללקוחות שלהן כתוצאה מכך. , איכשהו להתחמק מאחריות לנזקים הללו".

דוקטורו סקפטית שיש שוק משמעותי לשירותי בינה מלאכותית בעסקים בעלי ערך גבוה, בשל הסיכונים ומאמין שאנחנו נמצאים בועת AI. הוא מצביע על GM קרוז כדוגמה, ומציין כי המודל העסקי של חברת הרכב לנהיגה עצמית - בלימבו עקב פגיעה בהולך רגל וריקול – מסתכם בהחלפת כל נהג בשכר נמוך ב-1.5 מפקחים מרחוק יקרים יותר, מבלי למנוע אפשרות של תאונות ותביעות נלוות.

להעמיס יותר מדי

לפחות יש פוטנציאל מסוים לעסקים בעלי ערך נמוך הקשור לבינה מלאכותית. אלה כרוכים בתשלום חודשי כדי לגשת ל-API עבור צ'אט לא מדויק, יצירת תמונות אלגוריתמית שמשתפת סגנונות של אמנים ללא רשות, או מייצרים מאות של אתרי חדשות מזויפות (או ספרים) בדרך ש "מציף את האזור"עם מידע מוטעה.

זה לא סביר שקבוצת ארנה לטעון שפלטפורמת הבינה המלאכותית שלה יכולה להפחית את הזמן הנדרש ליצירת מאמרים עבור פרסומים כמו Sports Illustrated ב-80-90 אחוזים תשפר את שביעות רצון הקוראים, נאמנות המותג או איכות התוכן. אבל אולי יצירת יותר מאמרים ממה שניתן באופן אנושי על פני מאות הכותרים של החברה תוביל ליותר צפיות בדפים על ידי בוטים ולהכנסות פרוגרמטיות יותר ממודעות מרוכשי מודעות תמימים מכדי לתפוס אותם.

חלק מהבעיה הוא שמקדמי ה-AI העיקריים - אמזון, גוגל, Nvidia ומיקרוסופט - מפעילים פלטפורמות ענן או מוכרים חומרת GPU. הם הספקים של הבהלה לזהב בינה מלאכותית, שרק רוצים למכור את שירותי הענן שלהם או את ערכת מחיקת המספרים שלהם. כולם היו על הסיפון עבור הבלוקצ'יין אקספרס ועליונות המטבעות הקריפטוגרפיים עד שהאשליה הזאת גוועה.

הם אפילו יותר נלהבים לעזור לחברות להפעיל עומסי עבודה של AI, שימושי או אחר. הם פשוט זרעים בענן, בתקווה להניע עסקים לפעילות השכרת המעבד שלהם. באופן דומה, סטארט-אפים למידת מכונה ללא תשתית מקווים שדיבור נושם על טכנולוגיה טרנספורמטיבית ינפח את הערכת החברה שלהם כדי לתגמל משקיעים מוקדמים.

את שיגעון הבינה המלאכותית ניתן לייחס חלקית למאמץ התמידי של תעשיית הטכנולוגיה לענות "מה קורה אחר כך?" בתקופה של קיפאון ממושך. תפוח עץ, Google, אמזון בעברית, meta, מיקרוסופט, ו Nvidia כולם עושים כמיטב יכולתם כדי למנוע תחרות משמעותית ומאז תחילת עידן הענן והמובייל באמצע שנות ה-2000, הם עשו זאת די טוב. לא שהתנהגות אנטי-תחרותית היא משהו חדש - נזכיר את תעשיית 2010 הֶסדֵר עם משרד המשפטים האמריקני על ההסכמים בין Adobe, גוגל, אינטל, אינטואיט ופיקסאר כדי למנוע ציד כישרונות אחד מהשני.

מיקרוסופט עשתה הרבה מאינטגרציית הבינה המלאכותית שלה עם בינג, שאפילה זמן רב על ידי חיפוש Google, בטענה שזה "להמציא מחדש את החיפוש." אבל לא הרבה השתנה מאז - בינג לפי הדיווחים לא הצליחה לקחת שום נתח שוק מגוגל, בתקופה שבה יש סנטימנט נרחב שחיפוש Google - גם הוא כעת עם AI - הלך והחמיר.

הביאו את 2024

כדי לגלות מה מגיע אחר כך, נצטרך לחכות שמשרד המשפטים והרגולטורים במקומות אחרים בעולם יאלצו שינויים על הגבלים עסקיים אכיפה ותביעות משפטיות. כי בעוד שלגוגל יש מנעול על הפצת חיפוש - באמצעות עסקאות עם אפל ואחרות - ופרסום דיגיטלי - באמצעות העסקה שלה עם Meta (מסולק בארה"ב, עדיין תחת חקירה באירופה ובבריטניה) ופעילויות אחרות ש עצבני האינטרס של משרד המשפטים - לא עסקי החיפוש ולא עסקי הפרסום נראים מתאימים למתמודדים חדשים, לא משנה כמה רוטב AI יתווסף.

בינה מלאכותית היא אחריות לא רק במובן הפיננסי אלא גם במובן האתי. זה מבטיח חיסכון בשכר - למרות להיות בצורה קיצונית יקר מבחינת הדרכה ופיתוח ו השפעה על הסביבה - תוך עידוד אדישות לעבודה אנושית, קניין רוחני, פלט מזיק ודיוק מידע. בינה מלאכותית מזמינה חברות להסיר אנשים מהמשוואה כאשר הן לרוב מוסיפות ערך שאינו מובן מאליו מהמאזן.

יש מקום לבינה מלאכותית להיות שימושית באמת, אבל צריך לפרוס אותה כדי לעזור לאנשים במקום להיפטר מהם. ®

בול זמן:

עוד מ הקופה