גוגל מתחייבת 20 מיליון דולר למימון מחקרים בנושא AI אחראי

גוגל מתחייבת 20 מיליון דולר למימון מחקרים בנושא AI אחראי

צומת המקור: 2881081

גוגל אספה 20 מיליון דולר למימון מחקרים כיצד ניתן לפתח ולהשתמש בינה מלאכותית בצורה אחראית ולהשפיע לטובה על העולם.

"ל-AI יש פוטנציאל להקל על חיינו ולטפל בכמה מהאתגרים המורכבים ביותר של החברה - כמו מניעת מחלות, לגרום לערים לעבוד טוב יותר ולחזות אסונות טבע", בריז'יט הוייר גוסלינק, מנהלת השפעת מוצרים בענקית החיפוש, מוסבר בהצהרה היום. 

"אבל זה גם מעלה שאלות לגבי הוגנות, הטיה, מידע מוטעה, אבטחה ועתיד העבודה. מענה על שאלות אלו ידרוש שיתוף פעולה עמוק בין התעשייה, האקדמיה, הממשלות והחברה האזרחית".

20 מיליון הדולר שהופרשו לפרויקט העתידים הדיגיטליים הזה - לא הרבה כסף לגוגל אלא הרבה כסף לאקדמאים ולצוותי חשיבה - יוקדשו לתמיכה בחוקרים מבחוץ שיבדקו כיצד טכנולוגיית למידת מכונה תעצב את החברה ככל שהיא פוגעת יותר ויותר בחייהם של אנשים. . הפרויקט מתעניין במיוחד בפוטנציאל של בינה מלאכותית לשפר כלכלות, ממשלות ומוסדות, ומממן בופינים לחקור נושאים כגון:

  • כיצד תשפיע AI על האבטחה העולמית, וכיצד ניתן להשתמש בה כדי לשפר את האבטחה של מוסדות וארגונים
  • כיצד תשפיע בינה מלאכותית על העבודה והכלכלה, אילו צעדים נוכל לנקוט היום כדי להעביר את כוח העבודה למשרות עתידיות התומכות בינה מלאכותית, וכיצד ממשלות יכולות להשתמש בבינה מלאכותית כדי להגביר את הפריון והצמיחה הכלכלית
  • אילו סוגים של מבני ממשל ומאמצים בין-תעשיות יכולים לקדם בצורה הטובה ביותר חדשנות בינה מלאכותית אחראית

גוגל אמרה שהיא כבר חילקה חלק מהכסף כמענקים לצוותי חשיבה שונים: מכון אספן, מכון ברוקינגס, קרנגי קרן לשלום בינלאומי, המרכז לביטחון אמריקאי חדש, המרכז למחקרים אסטרטגיים ובינלאומיים ומכון R Street. , כמו גם Future of Work של MIT, והארגונים ללא מטרות רווח SeedAI, המכון לביטחון וטכנולוגיה וקרן החינוך לכנס מנהיגות. 

כמו שמות אחרים ב-Big Tech, ענקית האינטרנט מעוניינת להציג את עצמה כמובילה בפיתוח AI לתמיד. תחתיו עקרונות AI, גוגל התחייבה לבנות את הטכנולוגיה בצורה בטוחה ולהימנע מהטיות מזיקות. עם זאת, היא לא תמיד הצליחה לקיים את הבטחותיה, ונחתה את עצמה למים חמים עבור חלק ממוצריה.

תוכנת זיהוי תמונות שנפרסה באפליקציית התמונות שלה סימנה אנשים שחורים כגורילות, למשל, בשנת 2015. כדי למנוע שגיאות מסוג זה, Google פשוט חסום היכולות של משתמשים לחפש בתמונות שלהם באמצעות כל תוויות הקשורות לפרימטים. תלבושות אחרות, כמו אפל, מיקרוסופט ואמזון, עשו את אותו הדבר עם תוכנת אחסון תמונות משלהן.

באופן דומה, גוגל היה מבוקר על מיהר להפעיל את הצ'אטבוט שלו לחיפוש באינטרנט מְשׁוֹרֵר להתחרות בחיפוש Bing המחודש של מיקרוסופט, מונע הצ'אט. ביום ההשקה נתפס בארד מייצר מידע כוזב בהפגנה פומבית. כשהצ'אט בוט נשאל שאלה לגבי התגליות הגדולות ביותר של טלסקופ החלל ג'יימס ווב, הוא טען בטעות "JWST צילם את התמונות הראשונות של כוכב לכת מחוץ למערכת השמש שלנו."

למעשה, התמונה הראשונה שלנו של אקסופלנט, 2M1207b, צולמה על ידי הטלסקופ Very Large Telescope של מצפה הכוכבים הדרומי האירופי בשנת 2004, פי לנאס"א.

מאוחר יותר התברר שה-Bing AI של מיקרוסופט לא ממש טוב יותר וגם נוצר מידע שגוי על מקומות ומתוך דוחות.

ובכל זאת, גוגל מנסה להפוך את הטכנולוגיה שלה לבטוחה יותר והצטרפה לחברות מובילות אחרות, כמו OpenAI, Meta, אמזון, מיקרוסופט ואחרות, כדי להסכים לביקורות בראשות הממשלה של מוצריה. בדיקות אלו יתמקדו בתחומים מסוכנים במיוחד, כמו אבטחת סייבר ואבטחה ביולוגית. הם גם הבטיחו לפתח טכניקות סימון מים דיגיטליות כדי לזהות תוכן שנוצר בינה מלאכותית ולהתמודד עם דיסאינפורמציה.

בחודש שעבר הודיעו חוקרים ב-Google DeepMind SynthID, כלי שמשנה בעדינות את הפיקסלים של תמונה שנוצרת על ידי הדגם שלו Imagen כדי לאותת שמדובר בתמונה סינתטית. בינתיים, גוגל גם עדכנה לאחרונה את התוכן הפוליטי שלה כללי וכעת הוא דורש מכל מפרסמי הבחירות המאומתים לחשוף אם הפרסומות שלהם מכילות תמונות, סרטונים או אודיו שנוצרו על ידי בינה מלאכותית. המדיניות החדשה תיכנס לתוקף באמצע נובמבר מאוחר יותר השנה.

ואמזון רק לאחרונה שינתה את המדיניות שלה כדי לחייב מחברים לשתף את עבודתם באמצעות Kindle Direct Publishing של ענקית המסחר האלקטרוני לחשוף כל שימוש ב-AI ליצירת תוכן. ®

בול זמן:

עוד מ הקופה