OpenAI เรียกร้องให้หน่วยงานระดับโลกควบคุมการข่าวกรอง

OpenAI เรียกร้องให้หน่วยงานระดับโลกควบคุมการข่าวกรอง

โหนดต้นทาง: 2674707

หน่วยงานระหว่างประเทศควรรับผิดชอบในการตรวจสอบและตรวจสอบปัญญาประดิษฐ์ทั่วไปเพื่อให้แน่ใจว่าเทคโนโลยีมีความปลอดภัยสำหรับมนุษยชาติ ตามที่ผู้บริหารระดับสูงของผู้ผลิต GPT-4 OpenAI กล่าว

Sam Altman ซีอีโอและผู้ร่วมก่อตั้ง Greg Brockman และ Ilya Sutskever กล่าวว่า "เป็นไปได้" ที่ AI จะได้รับความสามารถพิเศษที่เหนือกว่ามนุษย์ในทศวรรษหน้า

“ในแง่ของศักยภาพทั้งด้านบวกและด้านลบ ความฉลาดหลักแหลมจะมีพลังมากกว่าเทคโนโลยีอื่นๆ ที่มนุษยชาติต้องต่อสู้ด้วยในอดีต เราสามารถมีอนาคตที่มั่งคั่งกว่านี้ได้อย่างมาก แต่เราต้องจัดการความเสี่ยงเพื่อไปถึงจุดนั้น” ทั้งสามคน เขียน เมื่อวันอังคารที่

ค่าใช้จ่ายในการสร้างเทคโนโลยีที่ทรงพลังดังกล่าวจะลดลงเมื่อมีผู้คนจำนวนมากขึ้นทำงานเพื่อพัฒนาเทคโนโลยีดังกล่าว พวกเขาแย้ง เพื่อควบคุมความคืบหน้า การพัฒนาควรได้รับการดูแลโดยองค์กรระหว่างประเทศ เช่น สำนักงานพลังงานปรมาณูระหว่างประเทศ (IAEA)

IAEA ก่อตั้งขึ้นในปี 1957 ในช่วงเวลาที่รัฐบาลกลัวว่าจะมีการพัฒนาอาวุธนิวเคลียร์ในช่วงสงครามเย็น หน่วยงานนี้ช่วยควบคุมพลังงานนิวเคลียร์และกำหนดมาตรการป้องกันเพื่อให้แน่ใจว่าพลังงานนิวเคลียร์จะไม่ถูกใช้เพื่อวัตถุประสงค์ทางทหาร

“ในที่สุด เราน่าจะต้องการบางอย่างเช่น IAEA สำหรับความพยายามด้านการข่าวกรอง ความพยายามใดๆ ที่เหนือขีดจำกัดความสามารถ (หรือทรัพยากร เช่น การคำนวณ) จะต้องอยู่ภายใต้อำนาจระหว่างประเทศที่สามารถตรวจสอบระบบ ต้องมีการตรวจสอบ ทดสอบว่าเป็นไปตามมาตรฐานความปลอดภัย กำหนดข้อจำกัดเกี่ยวกับระดับการใช้งานและระดับความปลอดภัย ฯลฯ " พวกเขาพูดว่า.

กลุ่มดังกล่าวจะรับผิดชอบในการติดตามการคำนวณและการใช้พลังงาน ซึ่งเป็นทรัพยากรที่สำคัญที่จำเป็นในการฝึกอบรมและรันโมเดลขนาดใหญ่และทรงพลัง

“เราสามารถตกลงร่วมกันได้ว่าอัตราการเติบโตของความสามารถของ AI ที่ชายแดนนั้นจำกัดอยู่ที่อัตราที่แน่นอนต่อปี” ผู้นำระดับสูงของ OpenAI แนะนำ บริษัทต่างๆ จะต้องยินยอมโดยสมัครใจในการตรวจสอบ และหน่วยงานควรมุ่งเน้นไปที่ "การลดความเสี่ยงที่มีอยู่" ไม่ใช่ประเด็นด้านกฎระเบียบที่กำหนดและกำหนดโดยกฎหมายของแต่ละประเทศ

เมื่อสัปดาห์ที่แล้ว Altman ได้นำเสนอแนวคิดที่ว่าบริษัทต่างๆ ควรได้รับใบอนุญาตในการสร้างแบบจำลองที่มีความสามารถขั้นสูงเหนือเกณฑ์ที่กำหนดในวุฒิสภา การได้ยิน. ข้อเสนอแนะของเขาถูกวิพากษ์วิจารณ์ในภายหลังเนื่องจากอาจส่งผลกระทบอย่างไม่เป็นธรรมต่อระบบ AI ที่สร้างโดยบริษัทขนาดเล็กหรือชุมชนโอเพ่นซอร์สที่มีโอกาสน้อยที่จะมีทรัพยากรเพื่อตอบสนองข้อกำหนดทางกฎหมาย

“เราคิดว่าเป็นเรื่องสำคัญที่จะต้องอนุญาตให้บริษัทและโครงการโอเพ่นซอร์สพัฒนาโมเดลที่ต่ำกว่าเกณฑ์ความสามารถที่สำคัญ โดยไม่ต้องมีกฎระเบียบที่เราอธิบายไว้ที่นี่ (รวมถึงกลไกที่เป็นภาระ เช่น ใบอนุญาตหรือการตรวจสอบ)” พวกเขากล่าว

Elon Musk ในช่วงปลายเดือนมีนาคมเป็นหนึ่งในผู้ลงนาม 1,000 คนในจดหมายเปิดผนึกที่เรียกร้องให้หยุดพัฒนาและฝึกฝน AI ที่มีประสิทธิภาพมากกว่า GPT4 เป็นเวลา XNUMX เดือน เนื่องจากความเสี่ยงที่อาจเกิดขึ้นกับมนุษยชาติ ซึ่งเป็นสิ่งที่ Altman ได้รับการยืนยัน ในช่วงกลางเดือนเมษายนกำลังทำอยู่

“ระบบ AI ที่ทรงพลังควรได้รับการพัฒนาก็ต่อเมื่อเรามั่นใจว่าผลกระทบของมันจะเป็นไปในเชิงบวกและความเสี่ยงของมันจะสามารถจัดการได้” จดหมายระบุ

Sundar Pichai CEO ของ Alphabet และ Google เขียนบทความใน Financial Times เมื่อสุดสัปดาห์ที่ผ่านมา คำพูด: “ฉันยังคงเชื่อว่า AI นั้นสำคัญเกินกว่าที่จะไม่ควบคุม และสำคัญเกินกว่าที่จะไม่ควบคุมให้ดี” ®

ประทับเวลา:

เพิ่มเติมจาก ลงทะเบียน

เนื่องจากมนุษย์ไม่สามารถจัดการการหลอมรวมได้ สหรัฐอเมริกาจึงทุ่มเงินหลายล้านให้กับการสร้างสรรค์ที่ขับเคลื่อนด้วย AI

โหนดต้นทาง: 1783477
ประทับเวลา: ธันวาคม 23, 2022