מפתחי קופי אדם משועממים נוטשים את מערכת ההדרכה הצבאית של ארה"ב-בריטניה

מפתחי קופי אדם משועממים נוטשים את מערכת ההדרכה הצבאית של ארה"ב-בריטניה

צומת המקור: 1772253

האם אי פעם פרסמת תמונות שלך בפלטפורמות מדיה חברתית כמו פייסבוק, אינסטגרם, טיק טוק ואחרות? אם כן, אולי הגיע הזמן לשקול מחדש את הפרסומים הללו.

הסיבה לכך היא שטכנולוגיה חדשה ליצירת תמונות בינה מלאכותית מאפשרת כעת למשתמשים לשמור חבורה של תמונות ווידאו פריימים שלך ואז לאמן אותה ליצור זיופים "ריאליסטיים" של התמונה שלך המתארת ​​אותך בעמדות מביכות ממש, עמדות לא חוקיות ולעיתים מתפשרות.

ובכן, לא כולם נמצאים בסיכון אבל האיום הוא אמיתי.

למרות שצילומים תמיד היו נוטים מניפולציה וזיוף מעידן חדרי החושך שבו סרטים טופלו במספריים והודבקו עד לפוטושופ של פיקסלים היום.

אמנם זו הייתה משימה מרתיעה והצריכה מידה של מיומנויות מומחים באותם ימים, אבל בימים אלה יצירת זיופים פוטוריאליסטיים משכנעים נעשתה קלה מדי.

ראשית, מודל בינה מלאכותית חייב ללמוד כיצד לרנדר או לסנתז תמונה של מישהו לתמונה ממודל דו-ממדי או תלת-ממדי באמצעות תוכנה. ברגע שהתמונה מוצגת בהצלחה, התמונה הופכת באופן טבעי לכלי משחק עבור הטכנולוגיה ובעלת יכולת ליצור כמויות אינסופיות של תמונות.

כשאדם בוחר לשתף את מודל הבינה המלאכותית, אנשים אחרים יכולים גם להצטרף ולהתחיל ליצור תמונות של אותו אדם.

טכנולוגיית AI שיוצרת תמונות מזויפות עמוקות הורסות חיים

אמיתי או שנוצר בינה מלאכותית?

מחקרים על מדיה חברתית

מתנדב שתואר כ"אמיץ" על ידי Ars Technica, פרסום טכנולוגי, שבהתחלה איפשר לחברה להשתמש בתמונות שלו כדי ליצור זיופים, שינה לב.

הסיבה לכך היא שבתוך זמן קצר, התוצאות של תמונות שעובדו ממודל ה-AI היו משכנעות מדי ומזיקות מדי מבחינת המוניטין עבור המתנדב.

בהתחשב בסיכון המוניטין הגבוה, אדם פיקטיבי שנוצר בינה מלאכותית, ג'ון, הפך לבחירה טבעית.

ג'ון, הבחור הפיקטיבי, היה מורה בבית ספר יסודי, שכמו אנשים רבים אחרים פרסם את התמונות שלו בפייסבוק בעבודה, צונן בבית ובאירוע כזה.

התמונות הבלתי פוגעניות ברובן של "ג'ון" הוצגו ולאחר מכן שימשו לאימון ה-AI כדי להעמיד אותו בעמדות מתפשרות יותר.

משבע תמונות בלבד, ניתן היה לאמן את הבינה המלאכותית ליצור תמונות שגורמות לה להיראות כאילו ג'ון חי חיים כפולים וסודיים. למשל, הוא הופיע כמי שנהנה להצטלם בעירום לסלפי בכיתתו.

בלילה הוא הלך לברים ונראה כמו ליצן.

בסופי שבוע הוא היה חלק מקבוצה צבאית קיצונית.

ה-AI גם יצר את הרושם שהוא ישב בכלא בגין אישום סמים בלתי חוקי, אך הסתיר עובדה זו מהמעסיק שלו.

בתמונה אחרת נראה ג'ון, הנשוי מתחזה לצד אישה עירומה שאינה אשתו במשרד.

באמצעות מחולל תמונות AI שנקרא דיפוזיה יציבה (גרסה 1.5) וטכניקה בשם Dreambooth, Ars Technica הצליחה לאמן את ה-AI כיצד ליצור תמונות של ג'ון בכל סגנון. למרות שג'ון היה יצירה פיקטיבית, כל אחד תיאורטית יכול היה להשיג את אותה מערכת תוצאות מחמש תמונות או יותר. ניתן לקטוף את התמונות הללו מחשבונות מדיה חברתית או לצלם כפריימים סטילס מסרטון.

תהליך לימוד הבינה המלאכותית כיצד ליצור תמונות של ג'ון ארך כשעה והיה ללא תשלום הודות לשירות מחשוב ענן של גוגל.

כשההכשרה הושלמה, יצירת התמונות ארכה מספר שעות, נכתב בפרסום. וזה לא היה בגלל שיצירת התמונות הייתה תהליך איטי משהו, אלא בגלל שהיה צורך לסרוק מספר "תמונות לא מושלמות" ולהשתמש במעין הנחיה של "ניסוי וטעייה" כדי למצוא את התמונות הטובות ביותר.

המחקר מצא שזה היה הרבה יותר קל בהשוואה לניסיון ליצור זיוף מציאותי של "ג'ון" בפוטושופ מאפס.

הודות לטכנולוגיה, אפשר לגרום לאנשים כמו ג'ון להיראות כאילו פעלו באופן לא חוקי, או ביצעו מעשים לא מוסריים כמו פריצת בית, שימוש בסמים לא חוקיים ומקלחת בעירום עם סטודנט. אם דגמי הבינה המלאכותית מותאמים לפורנוגרפיה, אנשים כמו ג'ון יכולים להפוך לכוכבי פורנו כמעט בן לילה.

אפשר גם ליצור תמונות של ג'ון עושה דברים לא פוגעניים לכאורה שיכולים להיות הרסניים אם יראו אותו סופג בבר כשהוא התחייב לפיכחון.

זה לא נגמר בזה.

אדם יכול גם להופיע ברגע קל יותר כאביר מימי הביניים או אסטרונאוט. במקרים מסוימים, אנשים יכולים להיות גם צעירים וגם מבוגרים או אפילו להתחפש.

עם זאת, שניתנו תמונות רחוקים מלהיות מושלמים. מבט מקרוב יכול לגלות אותם כזיופים.

החיסרון הוא שהטכנולוגיה שיוצרת את התמונות הללו שודרגה באופן משמעותי ועשויה להפוך את זה לבלתי אפשרי להבחין בין תמונה מסונתזת לאמיתית.

אולם למרות הפגמים שלהם, הזיופים עלולים להטיל צללים של ספק לגבי ג'ון ועלול להרוס את המוניטין שלו.

לאחרונה, מספר אנשים השתמשו באותה טכניקה (עם אנשים אמיתיים) כדי ליצור תמונות פרופיל מוזרות ואמנותיות של עצמם.

גם שירותים מסחריים ואפליקציות כמו לנסה יש פטריות שעוסקות באימון.

איך זה עובד?

העבודה על ג'ון עשויה להיראות יוצאת דופן אם לא עקבו אחר מגמות. כיום, מהנדסי תוכנה יודעים ליצור תמונות פוטוריאליסטיות חדשות של כל דבר שאפשר לדמיין.

מלבד תמונות, הבינה המלאכותית אפשרה באופן שנוי במחלוקת לאנשים ליצור יצירות אמנות חדשות המשכפלות יצירות של אמנים קיימים ללא רשותם.

הושעה עקב חששות אתיים

מיץ' ג'קסון, עורך דין טכנולוגיה אמריקאי הביע דאגה מהתפשטות של טכנולוגיה מזויפת עמוקה בשוק ואמר שהוא יחקור את ההשפעות המשפטיות של הטכנולוגיה ברוב שנת 2023.

"ההבחנה בין מה אמיתי למה שזייף תהפוך בסופו של דבר לבלתי אפשרית עבור רוב הצרכנים".

לאדובי כבר יש טכנולוגיית שמע בשם Adobe VoCo שמאפשרת לכל אחד להישמע בדיוק כמו מישהו אחר. העבודה על Adobe VoCo הושעתה עקב חששות אתיים, אך עשרות חברות אחרות משכללות את הטכנולוגיה, כאשר חלקן מציעות חלופות כיום. תסתכל, או תקשיב, בעצמך", מיצ'ום אמר.

תמונות וגרסאות וידאו של סרטונים מזויפים עמוקים הולכים ומשתפרים, הוא אומר.

"לפעמים, אי אפשר להבחין בין הסרטונים המזויפים לבין הסרטונים האמיתיים", הוא מוסיף.

Stable Diffusion משתמש במודל סינתזת תמונה ללמידה עמוקה שיכול ליצור תמונות חדשות מתיאורי טקסט ויכול לפעול על מחשב Windows או Linux PC, על Mac, או בענן על חומרת מחשב שכורה.

הרשת העצבית של Stable Diffusion הצליחה בעזרת למידה אינטנסיבית לשייך מילים ואת הקשר הסטטיסטי הכללי בין מיקומי הפיקסלים בתמונות.

בגלל זה, אפשר לתת ל-Stable Diffusion הנחיה, כגון "טום הנקס בכיתה", וזה ייתן למשתמש תמונה חדשה של טום הנקס בכיתה.

במקרה של טום האנק, מדובר בטיול בפארק מכיוון שמאות מהתמונות שלו כבר נמצאות במערך הנתונים המשמש לאימון ה-Stable Diffusion. אבל בשביל ליצור תמונות של אנשים כמו ג'ון, הבינה המלאכותית תצטרך קצת עזרה.

זה המקום שבו Dreambooth בועט.

Dreambooth, שהושק ב-30 באוגוסט על ידי חוקרי גוגל, משתמש בטכניקה מיוחדת כדי לאמן את ה-Stable Diffusion באמצעות תהליך שנקרא "כוונן עדין".

בהתחלה, Dreambooth לא היה משויך ל-Stable Diffusion, וגוגל לא הפכה את קוד המקור שלה לזמין על רקע חשש מהתעללות.

תוך זמן קצר, מישהו מצא דרך להתאים את טכניקת Dreambooth לעבודה עם Stable Diffusion ושחרר את הקוד באופן חופשי כפרויקט קוד פתוח, מה שהפך את Dreambooth לדרך פופולרית מאוד עבור אמני AI ללמד את Stable Diffusion סגנונות אמנותיים חדשים.

השפעה עולמית

לפי הערכות, כ-4 מיליארד אנשים ברחבי העולם משתמשים במדיה חברתית. מכיוון שרבים מאיתנו העלינו יותר מקומץ תמונות של עצמנו, אנו עלולים להיות פגיעים להתקפות כאלה.

למרות שההשפעה של טכנולוגיית סינתזת התמונה הוצגה מנקודת מבטו של גבר, גם נשים נוטות לשאת בנטל מכך.

כאשר פניה או גופה של אישה מוצגים, זהותה עלולה להכנס בצורה שובבה לדימויים פורנוגרפיים.

זה התאפשר הודות למספר העצום של תמונות מיניות שנמצאו במערכי נתונים המשמשים באימון AI.

במילים אחרות, זה אומר שה-AI מכיר יותר מדי איך ליצור את התמונות הפורנוגרפיות האלה.

בניסיון לטפל בכמה מהבעיות האתיות הללו, Stability AI נאלץ להסיר חומר של NSFW ממערך נתוני ההדרכה שלה לקראת שחרור 2.0 האחרון שלו.

למרות שרישיון התוכנה שלה מונע מאנשים להשתמש במחולל הבינה המלאכותית כדי ליצור תמונות של אנשים ללא רשותם, יש מעט מאוד פוטנציאל לאכיפה.

ילדים גם אינם בטוחים מתמונות מסונתזות ויכולים להציק להם באמצעות טכנולוגיה זו גם במקרים שבהם תמונות לא עוברות מניפולציות.

טכנולוגיית AI שיוצרת תמונות מזויפות עמוקות הורסות חיים

נוצר על ידי בני אדם?

האם יש משהו שאנחנו יכולים לעשות בנידון?

רשימת הדברים לעשות משתנה מאדם לאדם. דרך אחת היא לקחת את הצעד הדרסטי של הסרת תמונות במצב לא מקוון ביחד.

למרות שזה עשוי לעבוד עבור אנשים רגילים, זה לא הרבה פתרון עבור סלבריטאים ואנשי ציבור אחרים.

עם זאת, בעתיד, אנשים עשויים להיות מסוגלים להגן על עצמם מפני שימוש לרעה בתמונות באמצעים טכניים. מחוללי תמונות עתידיים של AI יכולים להיאלץ באופן חוקי להטמיע סימני מים בלתי נראים בפלטים שלהם.

כך, ניתן לקרוא את סימני המים שלהם מאוחר יותר ולהקל על אנשים לדעת שהם מזויפים.

"יש צורך ברגולציה מקיפה. כל פיסת תוכן שעבר מניפולציה או מזויף צריכה להידרש להציג באופן בולט מכתב או אזהרה, בדומה לסרט (G, PG, R ו-X). אולי משהו כמו Digitally Altertered או DA," אומר מיצ'ום.

Stability AI השיקה השנה את Stable Diffusion שלה כפרויקט קוד פתוח.

יאמר לזכותו, Stable Diffusion כבר משתמש בסימני מים משובצים כברירת מחדל, אבל אנשים שניגשים לגרסת הקוד הפתוח שלה נוטים לעקוף את זה על ידי השבתת רכיב סימון המים של התוכנה או הסרה שלו לחלוטין.

MIT כדי להקל

למרות שזה ספקולטיבי בלבד, סימן מים שנוסף מרצון לתמונות אישיות, עשוי לשבש את תהליך האימון של Dreambooth. קבוצה של חוקרי MIT אמרה PhotoGuard, תהליך אדוורסרי שמטרתו להגן ולהגן על AI מסינתזה של תמונה קיימת באמצעות שינויים קלים באמצעות שימוש בשיטת סימון מים בלתי נראה. עם זאת, זה מוגבל רק למקרי שימוש לעריכת בינה מלאכותית (נקראת לעתים קרובות "ציור ציור") וכוללת הדרכה או יצירת תמונות.

"בינה מלאכותית משתלטת על הכתיבה והציור! זיופים עמוקים יהרוס את הסרטון!
טוב.
זה אומר שההופעה החיה הופכת לבעלת ערך אפילו יותר. תערוכות ישגשגו. בני אדם רוצים לעשות עסקים עם בני אדם.
Meatspace הוא עדיין bestspace" ג'ונתן פיצ'רד אומר.

לאחרונה, יש התפשטות של טכנולוגיית AI שכותבת שירים, חרוזים ושירים. וכמה שכן מאסטרינגס משחקים.

המבקרים לקחו את ההתקדמות הטכנולוגית בצורה שלילית ומאמינים ש-AI משתלטים על משרות אנושיות.

/MetaNews.

בול זמן:

עוד מ מטא ניוז