מומחים מזהירים מפני הכחדה מ-AI אם לא ננקטו פעולה כעת

מומחים מזהירים מפני הכחדה מ-AI אם לא ננקטו פעולה כעת

צומת המקור: 2688105

יש עוד מכתב פתוח של דיבור על הבינה המלאכותית שעושה את הסיבוב. הפעם שורה רחבה של מנהיגים טכנולוגיים, אנשי ML ואפילו כמה מפורסמים חתמו על מנת להפציר בעולם לקחת את איומי רמת ההכחדה לכאורה הנובעים מבינה מלאכותית יותר ברצינות. 

יותר נכון הצהרה, ההודעה מהמרכז לבטיחות בינה מלאכותית (CAIS) חתומה על ידי אנשים כמו חלוץ הבינה המלאכותית ג'פרי הינטון, מנכ"ל OpenAI, סם אלטמן, גורו ההצפנה מרטין הלמן, ה-CTO של מיקרוסופט קווין סקוט ואחרים הוא משפט הצהרתי יחיד חיזוי אפוקליפסה אם היא תיעלם:

"הפחתת סכנת ההכחדה מבינה מלאכותית צריכה להיות בראש סדר העדיפויות העולמי לצד סיכונים אחרים בקנה מידה חברתי כמו מגפות ומלחמה גרעינית." 

למה כל כך קצר? המטרה הייתה "להדגים את הקואליציה הרחבה והצומחת של מדעני בינה מלאכותית, מנהיגים טכנולוגיים ופרופסורים המודאגים מסיכוני הכחדה של בינה מלאכותית. אנו זקוקים להכרה נרחבת בהימור כדי שנוכל לנהל דיוני מדיניות מועילים", אמר מנהל CAIS, דן הנדריקס. הקופה.

CAIS אינו מזכיר בינה כללית מלאכותית (AGI) בתוכנית רשימה של סיכוני AI, אנו מציינים. ומודלים מהדור הנוכחי, כמו ChatGPT, אינם איום אפוקליפטי על האנושות, אמר לנו הנדריקס. האזהרה השבוע היא לגבי מה שעלול לבוא בהמשך.

"סוגי האיומים הקטסטרופליים אליהם מתייחסת ההצהרה הזו קשורים למערכות AI מתקדמות עתידיות", אמר הנדריקס. הוא הוסיף שההתקדמות הנדרשת כדי להגיע לרמה של "איום אפוקליפטי" עשויות להיות במרחק של שנתיים עד 10 שנים בלבד, לא כמה עשורים. "אנחנו צריכים להתכונן עכשיו. עם זאת, מערכות AI שעלולות לגרום לתוצאות קטסטרופליות אינן צריכות להיות AGIs", אמר. 

כי בני אדם הם שלווים לחלוטין בכל מקרה

אחד כזה איום זה נשק, או הרעיון שמישהו יכול ליישם מחדש AI מיטיב להיות הרסני ביותר, כמו שימוש בבוט לגילוי תרופות לפיתוח נשק כימי או ביולוגי, או שימוש בלימוד חיזוק ללחימה מבוססת מכונה. עם זאת, בני אדם כבר די מסוגלים לייצר נשק מסוג זה, שיכול להוציא אדם, שכונה, עיר או מדינה.

ניתן גם לאמן בינה מלאכותית לרדוף אחר מטרותיה ללא התחשבות בערכים אינדיבידואליים או חברתיים, אנו מוזהרים. זה יכול "להחליש" בני אדם שבסופו של דבר מוותרים על כישורים ויכולות למכונות אוטומטיות, ולגרום לחוסר איזון כוח בין בקרי הבינה המלאכותית לאלה שנעקרו על ידי אוטומציה, או לשמש להפצת דיסאינפורמציה, בכוונה או אַחֶרֶת.

שוב, אף אחד מה-AI המעורב בזה לא צריך להיות כללי, וזה לא קשה מדי לראות את הפוטנציאל של AI מהדור הנוכחי להתפתח ולהוות את סוגי הסיכונים ש-CAIS מודאגת מהם. אולי יש לך דעות משלך על כמה באמת הרסנית או מסוגלת התוכנה יכולה או תהיה, ומה היא יכולה להשיג בפועל.

זה חיוני, אומר הטענה של CAIS, לבחון ולטפל בהשפעות השליליות של AI שכבר מורגשות, ולהפוך את ההשפעות הקיימות הללו לראיית הנולד. "כאשר אנו מתמודדים עם סיכונים מיידיים של בינה מלאכותית... תעשיית הבינה המלאכותית וממשלות ברחבי העולם צריכות להתמודד ברצינות גם עם הסיכון שבינה מלאכותית עתידית יכולה להוות איום על הקיום האנושי", הנדריקס אמר בהצהרה.

"העולם שיתף פעולה בהצלחה כדי להפחית סיכונים הקשורים למלחמה גרעינית. דרושה אותה רמת מאמץ כדי להתמודד עם הסכנות הנשקפות ממערכות בינה מלאכותיות עתידיות", דחק הנדריקס, עם רשימה של מובילי חברות, אקדמיה ומובילי מחשבה שתומכים בו. 

מאסק לא על הסיפון

חותמים נוספים כוללים את המדען הראשי של Google DeepMind איאן גודפלו, הפילוסופים דיוויד צ'למרס ודניאל דנט, הסופר והבלוגר סם האריס והאקס של המוזיקאי/אלון מאסק, גריימס. אם כבר מדברים על האיש עצמו, החתימה של מאסק נעדרת. 

מנכ"ל טוויטר היה בין אלה שחתמו על א מכתב פתוח שפורסם על ידי מכון עתיד החיים בחודש מרץ האחרון ודחק א הפסקה של שישה חודשים על אימון מערכות בינה מלאכותיות "חזקות יותר מ-GPT-4." באופן לא מפתיע, חתימתו של מנכ"ל OpenAI, אלטמן, נעדרה זֶה מכתב מסוים, לכאורה משום שהוא קרא לחברה שלו לצאת ישירות. 

OpenAI הוציאה מאז אזהרות משלה על האיומים שמציבה הבינה המלאכותית המתקדמת וקראה להקמת כלב שמירה עולמי הדומה לסוכנות הבינלאומית לאנרגיה אטומית כדי להסדיר את השימוש בבינה מלאכותית.

האזהרה והקריאה הרגולטורית ההיא, במקרה של תזמון גרוע מבחינה היסטורית, הגיעו באותו היום של אלטמן איים למשוך את OpenAI, ואת ChatGPT איתה, מהאיחוד האירופי על פני הגוש חוק AI. הכללים שבהם הוא תומך הם דבר אחד, אבל אלטמן אמר לבריסל שהרעיון שלהם לגבי הגבלת AI הוא גשר רגולטורי רחוק מדי, תודה רבה. 

חברי פרלמנט של האיחוד האירופי הגיב בכך שהם לא יוכתבו על ידי OpenAI, ושאם החברה לא תוכל לציית לכללי ממשל ושקיפות בסיסיים, "המערכות שלהם לא מתאימות לשוק האירופי", טען חבר הפרלמנט ההולנדי קים ואן ספרנטאק. 

ביקשנו מ-OpenAI הבהרות לגבי עמדותיו של אלטמן ונעדכן את הסיפור הזה אם נשמע. ®

בול זמן:

עוד מ הקופה