OpenAI פוסלת שימוש בבחירות ודיכוי בוחרים

OpenAI פוסלת שימוש בבחירות ודיכוי בוחרים

צומת המקור: 3073710

בצעד מכריע להילחם במידע מוטעה בבחירות, OpenAI הכריזה על א עמדה קפדנית נגד שימוש בכלי הבינה המלאכותית הגנרטיבית שלה במערכות בחירות ובטקטיקות דיכוי בוחרים.

הודעה זו באה כצעד חיוני לקראת הבטחת שלמותן של בחירות מרכזיות רבות המתוכננות לשנת 2024.

גם לקרוא: OpenAI מנהלת משא ומתן על רישוי תוכן חדשות עם CNN, Fox ו-Time

מאבק בשימוש לרעה באמצעות חדשנות ומדיניות

OpenAI יזמה אסטרטגיה כדי להגן על הטכנולוגיה שלה מפני ניצול כדי לתמרן את תוצאות הבחירות. החברה הקימה צוות מיוחד המתמקד בדאגות הקשורות לבחירות, וממזג את המומחיות של המחלקות השונות, כולל משפט, הנדסה ומדיניות. המטרה העיקרית של צוות זה היא לזהות ולצמצם את ניצול פוטנציאלי של AI בבחירות.

"יש לנו מאמץ צולב תפקודי המוקדש לעבודת בחירות, ומאגד מומחיות ממערכות הבטיחות שלנו, מודיעין איומים, משפטי, הנדסה וצוותי מדיניות".

האיום של מידע מוטעה בפוליטיקה אינו חדש, ובכל זאת הופעתה של טכנולוגיית AI מציבה אתגרים חסרי תקדים. מתוך הכרה בכך, OpenAI נוקטת באמצעים יזומים. החברה מתכננת להשתמש בשילוב של טכניקות כמו צוות אדום, מעורבות משתמשים ומעקות בטיחות. ספציפית, התדמית שלהם כלי הדור, DALL-E, עודכן כדי למנוע יצירת תמונות המתארות אנשים אמיתיים, כולל מועמדים פוליטיים.

"ל-DALL·E יש מעקות בטיחות לדחות בקשות המבקשות ליצור תדמית של אנשים אמיתיים, כולל מועמדים."

OpenAI משנה ללא הרף את מדיניות המשתמש שלה כדי לעמוד בקצב הנוף המתפתח של טכנולוגיית AI והשימוש לרעה הפוטנציאלי שלה. מדיניות הבטיחות המעודכנת שלה מגבילה כעת באופן מפורש את הפיתוח של יישומי בינה מלאכותית לקמפיין פוליטי ולובי. בנוסף, הופעלו אמצעים כדי למנוע יצירת צ'טבוטים המחקים אנשים או ארגונים אמיתיים.

הגברת השקיפות והאחריות

מרכיב מרכזי באסטרטגיה של OpenAI הוא הצגת סיווג מקור עבור כלי ה-DALL-E שלה. תכונה זו, שנמצאת כעת בבדיקות בטא, יכולה לזהות תמונות שנוצרו על ידי DALL-E. החברה שואפת להנגיש את הכלי הזה לעיתונאים, פלטפורמות וחוקרים כדי לשפר את השקיפות בתוכן שנוצר בינה מלאכותית.

"אנחנו מתכננים להפוך אותו לזמין בקרוב לקבוצת הבודקים הראשונה שלנו - כולל עיתונאים, פלטפורמות וחוקרים - למשוב."

OpenAI גם משלבת דיווח חדשות בזמן אמת ChatGPT. שילוב זה נועד לספק למשתמשים מידע מדויק ובזמן, להגביר את השקיפות סביב מקורות המידע המסופקים על ידי ה-AI.

במאמץ משותף עם האיגוד הלאומי של מזכירי המדינה בארה"ב, OpenAI מתמקדת במניעת הטכנולוגיה שלה מלהרתיע השתתפות בבחירות. עבודת הצוות כוללת הפניית משתמשי צ'אט בוט המונעים על ידי GPT לאתרי מידע אמינים בנושא הצבעה כמו CanIVote.org.

יריבים הולכים בעקבותיו במירוץ הבינה המלאכותית

ההכרזה של OpenAI יצרה תקדים בתעשיית הבינה המלאכותית, עם יריבים כמו Google LLC ו- Meta Platforms Inc. גם מיישמים אמצעים למאבק במידע שגוי המופץ באמצעות הטכנולוגיות שלהם. המאמץ הקולקטיבי הזה של מנהיגי התעשייה מסמל מודעות ואחריות גוברת כלפי ההשפעה הפוטנציאלית של AI על תהליכים דמוקרטיים.

אבל האם זה מספיק? צ'ארלס קינג מ-Pund-IT Inc. מעלה נקודה קריטית, ושואלת האם הצעדים הללו מגיעים בזמן או מגיבים. הוא טוען שחששות לגבי מידע מוטעה שנוצר על ידי בינה מלאכותית קיימות כבר שנים, ואפשר לראות את ההכרזה האחרונה של OpenAI כמעט מדי ומאוחר מדי. פרספקטיבה זו מעוררת הרהור מעמיק יותר על תפקידם ואחריותם של מפתחי בינה מלאכותית בנוף הפוליטי.

"אז במקרה הטוב, ההודעה הזו מציעה ש-OpenAI ישנה ליד המתג. אבל במקרה הגרוע, זה דומה לטקס שטיפת ידיים ש-OpenAI יכול להצביע עליו כאשר בינה מלאכותית פוגעת במעריץ במהלך הבחירות העולמיות הקרובות השנה".

בול זמן:

עוד מ מטא ניוז