Twitch แบนการแสดง Seinfeld ที่สร้างโดย AI เนื่องจากสร้างเรื่องตลกข้ามเพศ

Twitch แบนการแสดง Seinfeld ที่สร้างโดย AI เนื่องจากสร้างเรื่องตลกข้ามเพศ

โหนดต้นทาง: 1944150

วีดีโอ The Seinfeld สวมรอยเรื่อง Nothing, Forever ซึ่งเป็นซิทคอมที่พัฒนาโดยใช้ AI กำเนิด ถูกแบนชั่วคราวบน Twitch หลังจากตัวละครตัวหนึ่งเผลอพูดคำหยาบคายข้ามเพศ

การแสดงที่แปลกประหลาด พาดหัวข่าวทำ เมื่อสัปดาห์ที่แล้วสำหรับการใช้ AI เพื่อด้นสดภาพและสคริปต์ของตอนที่ไม่มีที่สิ้นสุดของ Seinfeld ในศิลปะเลียนแบบตลก ซิทคอม 30 ร็อก ที่คาดการณ์ อะไรทำนองนี้เมื่อ 15 ปีที่แล้ว

ตัวละครเหล่านี้จำลองมาจากตัวละครในซีรีส์คอมเมดี้เรื่องดังอย่าง Jerry, George, Elaine และ Kramer ถ่ายทอดบทสนทนาที่สร้างขึ้นโดยใช้โมเดลภาษา GPT-3 ของ OpenAI ข้อความได้รับการแปลเป็นเสียงโดยใช้อัลกอริทึมการอ่านออกเสียงข้อความ และพื้นหลังและฉากต่างๆ ก็สร้างโดย AI เช่นกัน Nothing, Forever สตรีมบน Twitch 24/7 และดึงดูดผู้ติดตามจำนวนมากตั้งแต่เริ่มออกอากาศในเดือนธันวาคมปีที่แล้ว

แต่ ช่อง การเป็นเจ้าภาพการแสดงถูกถอดออกในวันจันทร์สำหรับ การละเมิด นโยบายเนื้อหาของ Twitch Skyler Hartle ผู้ร่วมก่อตั้ง Mismatch Media และหนึ่งในผู้สร้างที่อยู่เบื้องหลัง Nothing, Forever กล่าว ลงทะเบียน การแบนดังกล่าวออกเนื่องจากตัวละครหลัก Larry Feinberg แสดงความคิดเห็นเชิงรุกว่าคนข้ามเพศกำลัง “ทำลายโครงสร้างของสังคม” การเป็นคนข้ามเพศเป็นอาการป่วยทางจิต และ “พวกเสรีนิยมทุกคนแอบเป็นเกย์”

คุณสามารถชมฉากสแตนอัพที่ไม่ดีได้ด้านล่าง

วิดีโอ Youtube

Hartle กล่าวว่าสคริปต์ของรายการเปลี่ยนเส้นทางเมื่อผู้สร้างเปลี่ยนจากการใช้โมเดล Davinci รุ่น GPT-3 ของ OpenAI ไปเป็นรุ่นที่ทรงพลังน้อยกว่าและราคาถูกกว่าชื่อ Curie และไม่ได้ใช้คุณสมบัติซอฟต์แวร์เพื่อกลั่นกรองเนื้อหา

“เราประสบปัญหากับการเชื่อมต่อกับ Davinci เมื่อคืน และต้องเปลี่ยนไปใช้โมเดล Curie ในขณะที่ปัญหาได้รับการแก้ไขเอง นี่เป็นเวลาที่ข้อความไม่เหมาะสมถูกสร้างขึ้น และเราปิดมันทันที เราตรวจสอบปัญหาเพิ่มเติมและพบว่าเราไม่ได้ใช้ประโยชน์จากเครื่องมือตรวจสอบเนื้อหาของ OpenAI อย่างถูกต้อง” เขาบอกกับเรา

Hartle ยืนยันว่าการแบนเป็นการชั่วคราวและควรใช้เวลา 14 วัน ขณะนี้ Mismatch Media กำลังทำงานเพื่อปรับใช้เครื่องมือกลั่นกรองเนื้อหาของ OpenAI และกำลังพิจารณาระบบรองเพื่อติดตามผลลัพธ์ของโมเดล 

“ข้อความที่เราสร้างขึ้นเป็นความผิดพลาด เรารู้สึกอับอายอย่างยิ่ง และเนื้อหาสร้างสรรค์ที่สร้างขึ้นไม่ได้สะท้อนถึงค่านิยมหรือความคิดเห็นของพนักงานของเรา เราเสียใจเป็นอย่างยิ่งกับเหตุการณ์ที่เกิดขึ้น และหวังว่าจะได้กลับมาออกอากาศเร็วๆ นี้ พร้อมกับมาตรการป้องกันที่เหมาะสม” เขากล่าว

โมเดลภาษาขนาดใหญ่ เช่น GPT-3 ได้รับการฝึกจากข้อความที่คัดลอกมาจากอินเทอร์เน็ต และสามารถสร้างภาษาที่ไม่เหมาะสมและไม่เหมาะสมได้ ตัวกรองเนื้อหาสามารถย่อข้อความที่แย่ที่สุดให้เหลือน้อยที่สุด แต่ตัวอย่างข้อมูลจะยังคงแอบดูอยู่แม้ว่าจะมีการป้องกันแล้วก็ตาม 

โฆษกจาก Twitch ส่ง ลงทะเบียน แนวทางชุมชนของบริษัทที่เกี่ยวข้องกับพฤติกรรมที่แสดงความเกลียดชัง และกล่าวว่า:

“เราไม่ได้แสดงความคิดเห็นเกี่ยวกับการละเมิดที่เฉพาะเจาะจงด้วยเหตุผลด้านความเป็นส่วนตัว แต่เราดำเนินการอย่างเหมาะสมเมื่อเรามีหลักฐานว่าช่องได้กระทำการที่ละเมิดหลักเกณฑ์ของชุมชนหรือข้อกำหนดในการให้บริการของเรา” ®

ประทับเวลา:

เพิ่มเติมจาก ลงทะเบียน