אנחנו צריכים רגולציה כדי להציל את האנושות מבינה מלאכותית... ולהציל מניות בינה מלאכותית - CryptoInfoNet

אנחנו צריכים רגולציה כדי להציל את האנושות מבינה מלאכותית... ולהציל מניות בינה מלאכותית - CryptoInfoNet

צומת המקור: 2968903

בתור בינה מלאכותית (AI) התפתחויות דוחפות את מרכז הבמה הטכנולוגית, משקיעים מריחים באופן טבעי הזדמנות באוויר. הם גם מריחים את הטפסים המודפסים הטריים ואת הסרט האדום של הרגולטור שרק מחכה לקחת את הגזרה שלהם ולעכב את המכונה השואגת של חדשנות בינה מלאכותית. אבל למי שמודאג מכך שדוד סם יכול לרסק את הענף באמצעות תקנות והגבלות חדשות, הייתי טוען שההיפך הוא הנכון כאן: תקנות יכולות להציל את התעשייה מעצמה. ובהרחבה של זה, תקנות נוספות לענף מגינות על משקיעים, ולא פוגעות. 

ברוב הענפים החדשים, המילה "רגולציה" היא טאבו. כעת, תעשיית הבינה המלאכותית אינה בדיוק חדשה. הקונספט המודרני חוזר לשנות החמישים, וההשקעות הפרטיות והציבוריות בתחום גדלו ודעכו במהלך 1950 השנים האחרונות בערך. בשנות ה-70 ותחילת שנות ה-1980 נראו א מחזור בום-ובסט בהשקעות בבינה מלאכותית. השקעות של ממשלת יפן בשנות ה-80 התחילו את תנופת הבינה המלאכותית המסחרית הגדולה הראשונה. עם זאת, עד 1993, "יותר מ-300 חברות סגרו את דלתותיהן" כשהבועה צצה. עם זאת, התקדמות מודרנית בכוח מחשוב ומודלים של שפה גדולה (LLMs) העניקו לתעשייה חיים חדשים, והפוטנציאל שלה אינו רק למשוך משקיעים אלא גם רגולטורים.

תקנות AI: בלגן של אינטרסים וסיכונים

השאלה מה "רגולציית AI" צריכה או יכולה להיות היא שאלה עבור פוליטיקאים, קובעי מדיניות ואתיקאים. מה שמשקיעים רוצים לדעת זה מה זה אומר על תיקי ההשקעות שלהם, כמובן. מהם הסיכונים הגדולים ביותר? וכאן החוקים והתקנות יכולים לספק הגנה מסוימת ולעזור בניהול הסיכונים הללו.

הסיכונים הגדולים ביותר למשקיעים מסתכמים בשלושה חששות עיקריים חופפים: הונאה, הגנה על קניין רוחני ופרטיות. כמובן, יש כבר חוקים בספרים שמתייחסים לכל שלושת הנושאים הללו בנפרד. עם זאת, הבעיה היא שבינה מלאכותית מייצגת מיזוג מסובך באופן ייחודי של כל שלושת הסיכונים, שללא מסגרות, חוקים ותקנות ברורים מאיימים על התקדמות התעשייה כולה.

החשש הדחוף ביותר ברשימה זו עבור משקיעים הוא הונאה. כמעט כולם יכולים להסכים שמניעת הונאה היא תפקיד חשוב וחיוני ברגולציה.

קופי רכיבה על חוט הונאה: שני מקרים

שני מקרים מוכיחים את העתיד הפוטנציאלי של תקנות בינה מלאכותית, את הסיכון להונאה ואת מסגרות הזמן הרגולטוריות שהמשקיעים צריכים לצפות להם. שניהם גם מתמצים כיצד הונאה תעצב את הפעולות הרגולטוריות שיבואו.

הראשון הוא עולם המטבעות הקריפטו ואסימונים שאינם ניתנים לשינוי (NFTs). תעשייה חדשה משמעותית מבינה מלאכותית, קריפטו ראה את חלקו ההוגן של פריחות ופריצות, והכי חשוב, הונאה. רשות ניירות ערך והבורסה (SEC) ווועדת הסחר הפדרלית (ה-FTC) בילו עשור טוב בניסיון להבין כיצד להתאים את הקריפטו לתוכניות הרגולטוריות שלהם. הקונגרס עדיין לא העביר שום חקיקה מפורשת הקשורה להצפנה למרות כמה ניסיונות.

באותה תקופה, חילופי דברים רבים עלו וקרסו. מכשירי NFT הפכו מלהיות זעם ב-2021 וב-2022 מאבדים 95% מערכם, לוקחים עמם מיליארדי דולרים של משקיעים. לשמצה, קריסת ה-FTX וה- משפט אחרון של סם בנקמן-פריד היה מעורב במיליארדי דולרים של כספים שנעשה בהם שימוש במרמה.

המקרה השני כאן הוא זה של אבטחת סייבר. בניגוד לקריפטו, ישנם לא מעט חוקי ליבה מבוססים על הספרים עבור התעשייה. שני חוקי אבטחת הסייבר ה"אמיתיים" הראשונים היו חוק הונאה והתעללות במחשבים משנת 1986 וחוק בקרת הפשיעה המקיפה משנת 1984. שניהם הסתמכו על הבנות יצירתיות וחדשות יחסית של "חוטים" (כמו בחוטי טלגרף) והונאת תיל.

בעשורים שחלפו מאז, הקונגרס העביר חוקים חלקים על נושאי סייבר עם תוצאות מעורבות. זה הביא לכך שמדינות החריפו את הרפיון. עולם אבטחת הסייבר מספק גם דוגמה לתעשייה עם אינטרסים מצטלבים עמוקים, שרבים מהם אינם שונים מהסיכונים והנקודות העיוורות הרגולטוריות העומדות בפני תעשיית הבינה המלאכותית. אחד הבולטים ביותר הוא הפרטיות. דאגות לגבי פרטיות הפרט, הקשורות בדרך כלל לרשתות חברתיות ולאינטרנט של הדברים (IoT), מתעוררות גם עם מודלים לאימון בינה מלאכותית.

שתי הדוגמאות כאן מספקות לקחים לתעשיית הבינה המלאכותית הצומחת במהירות. סביבת הרגולציה הנמוכה של עולם הקריפטו עם סיכון גבוה, תגמול גבוה, מלאה בהונאה וחוסר יציבות. אבטחת סייבר היא ענף ותיק ומבוסס הרבה יותר, אבל הסביבה הרגולטורית עדיין פגומה, במיוחד בנוגע לפרטיות.

המצב הנוכחי של תקנות AI

לכן, כדי לקבל מושג לאיזה מהמסלולים הרגולטוריים הללו המשקיעים צריכים לצפות, בואו נסתכל על הסביבה הרגולטורית הנוכחית של בינה מלאכותית.

החל מהסצנה המקומית, ובכן... אין הרבה, לפחות מבחינה חקיקתית. הנשיא ג'ו ביידן, לעומת זאת, היה עסוק בפיתוח נתיב רגולטורי באמצעות התחייבות וולונטרית, ולאחרונה והכי חשוב, צו ביצועי ציון דרך וסוחף.

מוקדם יותר השנה הכריז הבית הלבן על התחייבות וולונטרית לא מחייבת "לנהל את הסיכונים הנשקפים מ-AI." בין החותמים על התחייבות זו יש כמה שמות גדולים כמו אמזון (NASDAQ:AMZN), מטא פלטפורמות (NASDAQ:META), אלפבית (NASDAQ:GOOG, נאסד"ק:GOOGL) ו-OpenAI. המשרד למדיניות מדע וטכנולוגיה (OSTP), מחלקה בתוך הבית הלבן, פרסם גם א "מתווה למגילת זכויות בינה מלאכותית." עוד מסגרת התנדבותית במיוחד לשימוש בטוח ואתי בבינה מלאכותית.

לפי הבית הלבן, "שימוש בטוח ואתי בבינה מלאכותית" דורש "בדיקות טרום-פריסה" קפדניות, והוא נוצר עם "התייעצות של קהילות מגוונות, בעלי עניין ומומחי תחום כדי לזהות חששות, סיכונים והשפעות פוטנציאליות של המערכת". למערכות בינה מלאכותיות צריך להיות גם "הערכה ודיווח בלתי תלויים" כדי לוודא שהן נשארות בטוחות בטווח הארוך.

הוראת הבינה המלאכותית של ביידן

בשעות הבוקר המוקדמות של ה-30 באוקטובר, הבית הלבן הכריז על הדחיפה הרגולטורית המקיפה ביותר בנוגע לבינה מלאכותית. הנהגת המאמץ הזה הייתה א הוראת ביצוע גורף (וחדש מלוטש אתר אינטרנט) המכסה הכל, החל מבטיחות ואבטחה לפרטיות, זכויות אזרח ועוד. צו ביצוע זה מתבסס על ההתחייבות הוולונטרית הנ"ל ועל מגילת זכויות הבינה המלאכותית, והוא מתמקד בעיקר במה שעושים רוב הצווים המבצעים: גיוס המחלקות והסוכנויות הרבות של הזרוע המבצעת לפעולה.

ישנם פרטים רבים שצריך לגהץ לגבי האופן שבו צו ביצוע זה ישפיע על הענף, אך ההשלכות המשמעותיות ביותר עבור משקיעים הן:

1. ייקח לא מעט זמן עד שהרגולטורים יפתחו את ההנחיות והמדיניות החדשות הללו.

2. כל התקנות הספציפיות שייצאו מה-EO הזה ייבנה על קרקע משפטית רעועה עד שהקונגרס יעביר חוקים הקשורים לבינה מלאכותית. זה עדיין תלוי בציות מרצון, למעט חריג אחד גדול: חוק הייצור הביטחוני (DPA).

הזמנתו של ביידן ל-DPA בולטת כמו שהיא מבלבלת. ה-DPA היה החוק המפורש היחיד שאליו התייחס ה-EO עם כמה השלכות פוטנציאליות חזקות. לאחרונה נעשה שימוש ב-DPA בהקשר של מגיפת Covid-19, אך הוא קשור בדרך כלל לייצור בזמן מלחמה. ביידן משתמש בו כאן בהקשר של ביטחון לאומי בלבד:

"...הצו ידרוש שחברות המפתחות כל מודל יסוד המהווה סיכון רציני לביטחון הלאומי, לביטחון הכלכלי הלאומי, או לבריאות הציבור והבטיחות הלאומית חייבות להודיע ​​לממשלה הפדרלית בעת הכשרת המודל, ועליהן לשתף את התוצאות של כל האדום- מבחני בטיחות צוותים".

לא ברור מי מכוסה תחת "תהליך סקירה" זה המגובה ב-DPA, שכן לסוכנויות אחרות יש אחריות רגולטורית ספציפית יותר. לדוגמה, המכון הלאומי לתקנים וטכנולוגיה (NIST) אמור לפתח תקני בטיחות בינה מלאכותית ואת המחלקה לביטחון המולדת (ל-DHS) היא ליישם אותם עבור תשתית קריטית. אולי חשוב מכך, נדרשת הבהרה לגבי איזו סוכנות בכלל תיישם את המדיניות הזו.

יש מועמד בולט אחד שה-DPA יכסה כמעט בוודאות עקב חוזי ההגנה הקיימים שלו: פלנטיר (סימול:PLTR). קבלן ההגנה הביג דאטה וממוקד בינה מלאכותית אינו חתום על הבית הלבן התחייבות מרצון. זה עשוי להיות קשור יותר לנטיות הפוליטיות השמרניות-ליברטריאניות של יו"ר פלנטיר פיטר ת'יל ולתמיכה בנשיא לשעבר דונלד טראמפ מאשר דחייה מוחלטת של רגולציה נוספת. עם זאת, השמטה זו בולטת שכן לפלנטיר יש תוכניות גדולות עבורו "לוקח את כל שוק הבינה המלאכותית."

ביחד, המסגרת הרגולטורית שנקבעה בצו המבצעת של ביידן היא פורצת דרך ומגבירה את הקונגרס לבנות את שאר הבית הרגולטורי, כביכול.

לרוע המזל, אנו עשויים לחכות די הרבה זמן עד שהמחוקקים יתחילו "לשפוך את הבטון".

מה עם הקונגרס?

ההוראה המבצעת של AI של הבית הלבן מביאה רק שתי התייחסויות לקונגרס, אבל שתיהן הן קריאות לקונגרס להעביר חוקים דו-מפלגיים על AI (אחת מהן הייתה במפורש על העברת חוק פרטיות).

לפי מרכז ברנן לצדק, הקונגרס עשה זאת בערך 60 שטרות הקשורים לבינה מלאכותית ישיבה בוועדות שונות.

עם זאת, נכון לכתיבת שורות אלה, בית הנבחרים סיים זה עתה להסכים על יושב ראש בית חדש ויש לו "דגים גדולים יותר לטגן" עם מועד אחרון להשבתה מתקרבת של הממשלה והקרב התקציבי הנלווה אליו. שלא לדבר על הצעות חוק הסיוע השנויות במחלוקת לישראל ואוקראינה ועוד שלל דאגות דחופות יותר.

זה משאיר שני מקורות נוספים לתקנות AI: מדינות בודדות בארה"ב ושחקנים בינלאומיים. לקבוצה הראשונה, שהורכבה מקומץ בלבד מ-50 המדינות במדינה, יש עבר טלאים של חוקים רלוונטיים, כאשר בינה מלאכותית ופרטיות הצרכנים הם המוקד העיקרי. בינלאומית, סין מובילה את הדרך בבניית א סט מורכב ומתקדם של תקנות AI. המסגרת הרגולטורית המקיפה של האיחוד האירופי, בשם פשוט "חוק AI," צפוי להסתיים ולעבור עד סוף השנה.

תקנות AI ומה צופן העתיד

אז איפה זה משאיר את התעשייה הזו שצומחת במהירות, שעלולה להפריע מאוד? האם זה ייקח את נתיב הקריפטו לרגולציה, שהייתה שופעת הונאה וחוסר יציבות? או נתיב אבטחת הסייבר האיטי והיציב יותר אך עדיין פגום. ובכן, לעת עתה, לפחות בארצות הברית, זה כנראה יהיה שילוב של השניים.

ל-AI יש את הפוטנציאל ההפרתי והרווחי שתעשיית הקריפטו יכולה רק לחלום עליו. עם זאת, יש לה גם את הפוטנציאל ואת התועלת המיינסטרים שתעשיית אבטחת הסייבר מספקת. עבור משקיעים, ולא להישמע סנסציוניים מדי כאן, עבור האנושות, זו שילוב מסוכן.

יש אינספור יישומים פוטנציאליים בעולם האמיתי של בינה מלאכותית, מחקלאות להגנה וכלה במימון ובריאות. משיכת שטיח קריפטו עלולה להונות משקיעים מכספם, או שהאקר יכול לגנוב כסף מבנק, אבל הסיכונים מתאונות בינה מלאכותית או התנהגות זדונית יכול להיות קטסטרופלי.

ההיפותטיות לגבי מה שעלול להשתבש הן אינסופיות מכיוון שבינה מלאכותית משולבת עוד יותר בחיי היומיום. אבל אנחנו כבר רואים מקרים מטרידים של שימוש זדוני עבור AI. ההתחלה האחרונה של מלחמת ישראל-חמאס ראתה מבול של מידע מוטעה בפלטפורמות מדיה חברתית כמו X, לשעבר טוויטר. חלק מהתמונות המזויפות המשותפות באינטרנט נוצרות בינה מלאכותית, לעתים קרובות נוצרות עם כלים נגישים בקלות כמו מחולל התמונות של בינג. עם הטכנולוגיה המשתפרת כל הזמן, יהיה קשה יותר לזהות תמונות וסרטונים מזויפים.

אנחנו גם מתמודדים עם סיכונים שפעם נמצאו רק במדע בדיוני, כמו "בינה מלאכותית נוכלת". בעוד מתכנן ארוחות בינה מלאכותית בטעות מציע מתכון לגז כלור שווה צחוקים היום, זה יהיה הרבה פחות הומוריסטי אם זה היה בינה מלאכותית שאחראית, למשל, על חווה אוטומטית בקנה מידה גדול המזהמת בטעות (או גרוע מכך, בכוונה) יבול של ירקות.

כמו שנאמר: "תקנות הבטיחות כתובות בדם". ובאמת שלא נצטרך לחכות עד שיישפך דם לפני שננקוט בפעולה.

מבחינה משפטית, כבר יש "פטיש" של תיק נגד גוגל, שלפי החברה יעשה זאת להרוס את הרעיון של AI גנרטיבי. מה שהתעשייה צריכה כדי להימנע מגורל זה הם תקנות ברורות ניתנות לאכיפה שיכולות להגן הן על הציבור והן על חברות בינה מלאכותית מפני הזעם המשפטי של זו.

למען המשקיעים ולמען כולם, צריך להיות יותר פיקוח רגולטורי על תעשיית הבינה המלאכותית לפני שמשהו ישתבש בצורה נוראית. הצו המנהלי החדש של הבית הלבן מספק מסגרת מקיפה מאוד בנושאים רבים הקשורים לבינה מלאכותית ומהווה התחלה טובה. עם זאת, ללא חוקים שעברו בקונגרס המספקים בסיס איתן לרגולטורים שאפשר לבנות עליו, נסיים עם בלגן בסגנון קריפטו של רגולטורים מבולבלים. זה יוביל רק למשתתפי שוק מבולבלים ולמשקיעים מבולבלים. ועם הפוטנציאל של AI כל כך גדול ומסוכן, זה לא משהו שמישהו צריך לרצות.

אז לא, תקנות AI לא "האויב," כפי שניסח זאת מניפסט של איש הון סיכון, אבל הם יכולים לשמש כמעקות בטיחות שיכולים לעזור להגן על התעשייה ועל המשקיעים מפני סיכונים עצומים.

מה המשקיעים צריכים לעשות עכשיו

ללא מעקות בטיחות ברורים, השקעה בעולם הבינה המלאכותית היא עסק מסוכן. משקיעים שאינם מודאגים במיוחד מההשפעה של התקנות המרוסקות הללו יכולים לבצע הימורים מסוכנים יותר על שורה של סטארט-אפים שמנסים להתעשר. או על מחזות מבוססים אך מזלזלים ברגולציה כמו פלנטיר.

אחרת, עדיף למשקיעים לראות אילו חברות "משחקות בכדור" עם ההתחייבות הוולונטרית של הבית הלבן. או כאלה שמסתגלים לשינויים הרגולטוריים הבינלאומיים שיוצאים מהאיחוד האירופי ומסין. סביר להניח שחברות אלה רואות בתקנות החדשות האלה משהו שהם יכולים לחיות איתו או משהו שהם יכולים להשתמש בו לטובתם.

כך או כך, פטיש הרגולציה ייפול בשלב זה או אחר. זה יהיה הכי טוב לכולם, לא רק למשקיעים, שזה ייפול לפני שהחצי השני של הביטוי "זוז מהר ושבור דברים" ישבור את תעשיית הבינה המלאכותית.

בתאריך הפרסום, אנדרו בוש החזיק בתפקיד LONG במניות GOOGL ו-AMZN. הדעות המובעות במאמר זה הן של הכותב, בכפוף להנחיות הפרסום של InvestorPlace.com.

אנדרו בוש הוא עורך חדשות פיננסיות של InvestorPlace ובעל שני תארים בעניינים בינלאומיים. הוא עבד בחינוך, במגזר הטכנולוגי וכאנליסט מחקר בחברת ייעוץ ממוקדת ביטחון לאומי מבוססת DC.

קישור מקור

#רגולציה #שמור #אנושות #AI.. #שמור #מניות

בול זמן:

עוד מ CryptoInfonet