הרגולטור האמריקאי חוקר את ChatGPT של OpenAI להפצת שקרים

הרגולטור האמריקאי חוקר את ChatGPT של OpenAI להפצת שקרים

צומת המקור: 2764806

נציבות הסחר הפדרלית של ארה"ב (FTC) פתחה בחקירה של OpenAI על הפרות פוטנציאליות של חוקי הגנת הצרכן הקשורים לצ'טבוט ה-AI שלה ChatGPT, שהואשם בהפצת מידע כוזב ובזלזול בכללי פרטיות הנתונים.

לפי דיווח של הוושינגטון פוסט, כלב השמירה על התחרות שלח מכתב בן 20 עמודים ל-OpenAI ובו דרש מידע מפורט על הפעילות העסקית שלה, כולל מדיניות הפרטיות שלה, טכנולוגיית AI. אמצעי אבטחת מידע ותהליכים.

המכתב הוא המהלך האחרון של הרגולטורים לבחון את הסיכונים הפוטנציאליים של AI יצירתי, סוג של בינה מלאכותית שניתן להשתמש בה כדי ליצור טקסט, תמונות וסרטונים מציאותיים ומשכנעים. ChatGPT הושק לשבחים רבים בנובמבר, ועורר "מרוץ חימוש" בינה מלאכותית.

גם לקרוא: ה-Bard AI Chatbot של גוגל קורא כעת תמונות ומדבר, מתרחב לאיחוד האירופי

ChatGPT הואשם בגרימת נזק למשתמשים

לפי לדווח, ה-FTC חוקר אם ChatGPT גרם לאנשים נזק על ידי מתן תשובות שגויות לשאלותיהם. הוא רוצה לדעת אם החברה "עסקה בפרקטיקות של פרטיות או אבטחת מידע לא הוגנות או מטעות" שגרמו למשתמשים "פגיעה במוניטין".

ועדת הסחר הפדרלית שאלה את OpenAI לגבי אמצעי ההגנה שהיא הציבה כדי למנוע ממודלים של בינה מלאכותית שלה "ליצור הצהרות על אנשים אמיתיים שהן שקריות, מטעות או מזלזלות".

מייסד ומנכ"ל OpenAI, סם אלטמן, הביע אכזבה מכך שגילה על חקירת ה-FTC רק באמצעות הדלפה לוושינגטון פוסט. כתיבה בטוויטר אמר אלטמן שהמהלך "לא יעזור לבנות אמון", אך הוסיף שהחברה תעבוד עם ה-FTC.

"זה סופר חשוב לנו שהטכנולוגיה שלנו תהיה בטוחה ופרו-צרכנית, ואנו בטוחים שאנו פועלים לפי החוק", אמר. "אנחנו מגנים על פרטיות המשתמש ומעצבים את המערכות שלנו כדי ללמוד על העולם, לא על אנשים פרטיים."

אלטמן דיבר גם על הטכנולוגיה העדכנית ביותר של OpenAI, GPT-4. לדבריו, המודל "נבנה על בסיס שנים של מחקר בטיחות ועבר 6+ חודשים לאחר שסיימנו את ההכשרה הראשונית, מה שהופך אותו לבטוח ומיושר יותר לפני שחרורו".

"אנחנו שקופים לגבי המגבלות של הטכנולוגיה שלנו, במיוחד כשאנחנו נופלים", הדגיש המנכ"ל.

בזמן כתיבת שורות אלה, ועדת הסחר הפדרלית עדיין לא פרסמה תגובה רשמית.

עוד כאבי ראש משפטיים עבור OpenAI

חקירת ה-FTC אינה האתגר המשפטי היחיד OpenAI צריך לדאוג. כמו MetaNews בעבר דיווח, OpenAI נתבעה על 3 מיליארד דולר בתביעה ייצוגית המאשימה את יוצר ChatGPT בגניבת נתוני משתמשים.

על פי תלונה שהוגשה לבית משפט פדרלי בקליפורניה ב-28 ביוני, OpenAI השתמשה לכאורה ב"מידע פרטי גנוב" כדי "לאמן ולפתח" את מוצריה, כולל ChatGPT 3.5, ChatGPT 4, Dall-E ו-Vall-E.

בשבוע שעבר, הקומיקאית שרה סילברמן ועוד שני סופרים הוגש תביעה נגד OpenAI ו-Meta, בטענה שמערכות ה-AI של החברות הוכשרו על חומר המוגן בזכויות יוצרים מהספרים שלהן ללא רשותן.

המחברים טוענים כי החברות השתמשו ב"ספריות צל" של חומר המוגן בזכויות יוצרים כדי להכשיר את מערכות הבינה המלאכותית שלהן, וכי הדבר מהווה הפרת זכויות יוצרים.

חששות רגולטוריים

ההתפתחות המהירה של AI העלתה חששות לגבי הסיכונים הפוטנציאליים של הטכנולוגיה, כגון הטיה, אפליה והפרות פרטיות. כתוצאה מכך, הרגולטורים ברחבי העולם מתחילים לשים לב היטב לתעשייה המתפתחת.

ממשלות בוחנות כיצד ניתן להחיל תקנות קיימות, כגון אלו המסדירות זכויות יוצרים ופרטיות נתונים, על AI. הם גם שוקלים כללים חדשים שעשויים להיות נחוצים. שני תחומי מיקוד מרכזיים הם הנתונים המוזנים למודלים של AI והתוכן שהם מייצרים.

בארצות הברית, מנהיג הרוב בסנאט צ'אק שומר, קרא ל"חקיקה מקיפה" כדי להבטיח אמצעי הגנה על בינה מלאכותית, כך דיווח הוושינגטון פוסט. הוא גם התחייב לקיים סדרה של פורומים בהמשך השנה שמטרתם "להניח בסיס חדש למדיניות בינה מלאכותית".

לאחרונה, האפיפיור פרנציסקוס שוחרר הנחיות לפיתוח אחראי של AI. סין ו אירופה הם גם מחמירים ומכוונים את תקנות הבינה המלאכותית.

שתף את הפוסט

בול זמן:

עוד מ מטא ניוז