OpenAI קוראת לסוכנות העולמית להסדיר את מודיעין העל

OpenAI קוראת לסוכנות העולמית להסדיר את מודיעין העל

צומת המקור: 2674707

סוכנות בינלאומית צריכה להיות אחראית על בדיקה וביקורת של אינטליגנציה כללית מלאכותית כדי להבטיח שהטכנולוגיה בטוחה לאנושות, לדברי בכירים ביצרנית GPT-4 OpenAI.

המנכ"ל סם אלטמן והמייסדים המשותפים גרג ברוקמן ואיליה סוצקבר אמרו כי "ניתן להעלות על הדעת" שבינה מלאכותית תשיג יכולות יוצאות דופן העולות על בני האדם במהלך העשור הבא.

"במונחים של יתרונות וחסרונות פוטנציאליים, אינטליגנציה-על תהיה חזקה יותר מטכנולוגיות אחרות שהאנושות נאלצה להתמודד איתן בעבר. יכול להיות לנו עתיד משגשג באופן דרמטי; אבל אנחנו צריכים לנהל סיכונים כדי להגיע לשם", השלישייה כתב ביום שלישי.

העלויות של בניית טכנולוגיה כה חזקה רק יורדות ככל שיותר אנשים פועלים לקידום אותה, הם טענו. על מנת לשלוט בהתקדמות, הפיתוח צריך להיות בפיקוח של ארגון בינלאומי כמו הסוכנות הבינלאומית לאנרגיה אטומית (IAEA).

סבא"א הוקמה ב-1957 בתקופה שבה ממשלות חששו שנשק גרעיני יפותח במהלך המלחמה הקרה. הסוכנות עוזרת להסדיר את הכוח הגרעיני, ומגדירה אמצעי הגנה כדי לוודא שאנרגיה גרעינית לא משמשת למטרות צבאיות.

"סביר להניח שבסופו של דבר נזדקק למשהו כמו סבא"א למאמצי מודיעין-על; כל מאמץ מעל סף יכולת מסויים (או משאבים כמו מחשוב) יצטרך להיות כפוף לרשות בינלאומית שיכולה לבחון מערכות, לדרוש ביקורת, לבדוק עמידה בתקני בטיחות, להציב מגבלות על דרגות פריסה ורמות אבטחה וכו'. " הם אמרו.

קבוצה כזו תהיה אחראית על מעקב אחר צריכת מחשוב ואנרגיה, משאבים חיוניים הדרושים לאימון והפעלת מודלים גדולים וחזקים.

"נוכל להסכים באופן קולקטיבי שקצב הגידול ביכולת הבינה המלאכותית בגבול מוגבל לקצב מסוים בשנה", הציע הבכיר של OpenAI. חברות יצטרכו להסכים מרצון לבדיקות, והסוכנות צריכה להתמקד ב"הפחתת סיכון קיומי", ולא בסוגיות רגולטוריות המוגדרות ונקבעות על ידי החוקים האישיים של המדינה.

בשבוע שעבר העלה אלטמן את הרעיון שחברות צריכות לקבל רישיון לבניית דגמים עם יכולות מתקדמות מעל סף ספציפי בסנאט שמיעה. ההצעה שלו זכתה לביקורת מאוחר יותר מכיוון שהיא עלולה להשפיע בצורה בלתי הוגנת על מערכות בינה מלאכותית שנבנו על ידי חברות קטנות יותר או קהילת הקוד הפתוח, שסביר פחות שיהיו להם המשאבים לעמוד בדרישות החוק.

"אנחנו חושבים שחשוב לאפשר לחברות ולפרויקטים בקוד פתוח לפתח מודלים מתחת לסף יכולת משמעותי, ללא סוג הרגולציה שאנו מתארים כאן (כולל מנגנונים מכבידים כמו רישיונות או ביקורת)", אמרו.

אילון מאסק בסוף מרץ היה אחד מ-1,000 החותמים על מכתב פתוח שקרא להפסקה של שישה חודשים בפיתוח ואימון בינה מלאכותית חזקה יותר מ-GPT4 בשל הסיכונים הפוטנציאליים לאנושות, דבר שאלטמן מאושר באמצע אפריל זה היה עושה.

"יש לפתח מערכות בינה מלאכותית עוצמתיות רק ברגע שאנו בטוחים שההשפעות שלהן יהיו חיוביות והסיכונים שלהן יהיו ניתנים לניהול", נכתב במכתב.

מנכ"ל אלפבית וגוגל, סונדאר פיצ'אי, כתב מאמר בפייננשל טיימס בסוף השבוע, אמר: "אני עדיין מאמין ש-AI חשוב מכדי לא לווסת, וחשוב מכדי לא לווסת היטב". ®

בול זמן:

עוד מ הקופה