ผู้เชี่ยวชาญเตือนการสูญพันธุ์ของ AI หากไม่ดำเนินการในตอนนี้

ผู้เชี่ยวชาญเตือนการสูญพันธุ์ของ AI หากไม่ดำเนินการในตอนนี้

โหนดต้นทาง: 2688105

มีจดหมายเปิดผนึกถึงวาระอีกฉบับหนึ่งเกี่ยวกับ AI ในการปัดเศษ ครั้งนี้ ผู้นำด้านเทคโนโลยี ผู้ทรงคุณวุฒิด้าน ML และแม้แต่คนดังไม่กี่คนได้ลงนามเพื่อกระตุ้นให้โลกตระหนักถึงภัยคุกคามระดับการสูญพันธุ์ที่ถูกกล่าวหาว่าเกิดจากปัญญาประดิษฐ์อย่างจริงจังมากขึ้น 

ข้อความจากศูนย์ความปลอดภัย AI (CAIS) ที่ลงนามโดยบุคคลเช่นผู้บุกเบิก AI จอฟฟรีย์ฮินตัน, OpenAI CEO Sam Altman, กูรูด้านการเข้ารหัส Martin Hellman, Microsoft CTO Kevin Scott และคนอื่นๆ ประโยคประกาศเดียว ทำนายคัมภีร์ของศาสนาคริสต์หากไม่ได้รับการพิจารณา:

“การลดความเสี่ยงของการสูญพันธุ์จาก AI ควรมีความสำคัญระดับโลกควบคู่ไปกับความเสี่ยงอื่นๆ ในระดับสังคม เช่น โรคระบาดและสงครามนิวเคลียร์” 

ทำไมสั้นจัง เป้าหมายคือ "เพื่อแสดงแนวร่วมในวงกว้างและเพิ่มมากขึ้นของนักวิทยาศาสตร์ AI ผู้นำเทคโนโลยี และอาจารย์ที่เกี่ยวข้องกับความเสี่ยงในการสูญพันธุ์ของ AI เราต้องการการยอมรับอย่างกว้างขวางเกี่ยวกับการเดิมพัน เพื่อให้เราสามารถอภิปรายนโยบายที่เป็นประโยชน์ได้” Dan Hendrycks ผู้อำนวยการของ CAIS กล่าว ลงทะเบียน.

CAIS ไม่ได้กล่าวถึงปัญญาประดิษฐ์ทั่วไป (AGI) ในนั้น รายการความเสี่ยงของ AIเราทราบ และรุ่นปัจจุบันเช่น ChatGPT ไม่ได้เป็นภัยคุกคามต่อมนุษยชาติในวันสิ้นโลก Hendrycks บอกกับเรา คำเตือนในสัปดาห์นี้เกี่ยวกับสิ่งที่อาจเกิดขึ้นต่อไป

“ประเภทของภัยคุกคามร้ายแรงที่คำแถลงนี้อ้างถึงมีความเกี่ยวข้องกับระบบ AI ขั้นสูงในอนาคต” เฮนดริกส์ให้ความเห็น เขาเสริมว่าความก้าวหน้าที่จำเป็นเพื่อให้ไปถึงระดับ "ภัยคุกคามจากวันสิ้นโลก" อาจอยู่ห่างออกไปเพียง 10-XNUMX ปี ไม่ใช่หลายสิบปี “เราต้องเตรียมตัวเดี๋ยวนี้ อย่างไรก็ตาม ระบบ AI ที่อาจก่อให้เกิดหายนะไม่จำเป็นต้องเป็น AGI” เขากล่าว 

เพราะยังไงมนุษย์ก็สงบสุขอยู่แล้ว

หนึ่งในนั้น การคุกคาม คือการสร้างอาวุธ หรือแนวคิดที่ว่าใครบางคนสามารถนำ AI ที่ใจดีมาดัดแปลงให้ทำลายล้างได้สูง เช่น การใช้บอทค้นหายาเพื่อพัฒนาอาวุธเคมีหรือชีวภาพ หรือใช้การเรียนรู้เสริมกำลังสำหรับการต่อสู้โดยใช้เครื่องจักร ที่กล่าวว่ามนุษย์ค่อนข้างมีความสามารถในการผลิตอาวุธประเภทนั้นอยู่แล้ว ซึ่งสามารถนำบุคคล ละแวกบ้าน เมือง หรือประเทศออกไปได้

AI สามารถได้รับการฝึกฝนให้ทำตามเป้าหมายโดยไม่คำนึงถึงค่านิยมส่วนบุคคลหรือสังคม เราได้รับการเตือน มันสามารถ "ทำให้เสียเปรียบ" มนุษย์ที่ยอมสละทักษะและความสามารถให้กับเครื่องจักรอัตโนมัติ ทำให้เกิดความไม่สมดุลของพลังงานระหว่างตัวควบคุมของ AI และผู้ที่ถูกแทนที่ด้วยระบบอัตโนมัติ หรือถูกใช้เพื่อเผยแพร่ข้อมูลที่บิดเบือนโดยเจตนาหรือ มิฉะนั้น.

อีกครั้ง ไม่มี AI ใดที่เกี่ยวข้องกับสิ่งนั้นจำเป็นต้องเป็นแบบทั่วไป และไม่ใช่เรื่องยากเกินไปที่จะเห็นศักยภาพของ AI รุ่นปัจจุบันที่จะพัฒนาเพื่อก่อให้เกิดความเสี่ยงประเภทต่างๆ ที่ CAIS กังวล คุณอาจมีความคิดเห็นของคุณเองว่าซอฟต์แวร์สามารถทำลายล้างหรือมีความสามารถในการทำลายล้างได้อย่างแท้จริงเพียงใด และจะบรรลุผลสำเร็จได้อย่างไร

การโต้เถียงของ CAIS เป็นเรื่องสำคัญอย่างยิ่ง เพื่อตรวจสอบและจัดการกับผลกระทบด้านลบของ AI ที่สัมผัสได้อยู่แล้ว และเปลี่ยนผลกระทบที่มีอยู่ให้กลายเป็นการมองการณ์ไกล “ในขณะที่เราต่อสู้กับความเสี่ยงของ AI อย่างฉับพลัน … อุตสาหกรรม AI และรัฐบาลทั่วโลกจำเป็นต้องเผชิญหน้าอย่างจริงจังเช่นกันกับความเสี่ยงที่ AI ในอนาคตอาจเป็นภัยคุกคามต่อการดำรงอยู่ของมนุษย์” Hendrycks กล่าวว่า ในงบ

“ทั่วโลกประสบความสำเร็จในการร่วมมือเพื่อลดความเสี่ยงที่เกี่ยวข้องกับสงครามนิวเคลียร์ ต้องใช้ความพยายามในระดับเดียวกันเพื่อจัดการกับอันตรายที่เกิดจากระบบ AI ในอนาคต” เฮนดริกส์กระตุ้น โดยมีรายชื่อผู้นำองค์กร นักวิชาการ และความคิดคอยหนุนหลังเขา 

มัสค์ไม่ได้อยู่ในเรือ

ผู้ลงนามอื่นๆ ได้แก่ Ian Goodfellow นักวิทยาศาสตร์หลักของ Google DeepMind, นักปรัชญา David Chalmers และ Daniel Dennett, นักเขียนและบล็อกเกอร์ Sam Harris และนักดนตรี/อดีต Elon Musk, Grimes ลายเซ็นของ Musk หายไปเมื่อพูดถึงชายคนนั้น 

ซีอีโอทวิตเตอร์ คือ ในบรรดาผู้ที่ลงนามใน จดหมายเปิดผนึก จัดพิมพ์โดย Future of Life Institute เมื่อเดือนมีนาคมที่ผ่านมาเรียกร้องให้ก หยุดหกเดือน เกี่ยวกับการฝึกอบรมระบบ AI “ทรงพลังกว่า GPT-4” ไม่น่าแปลกใจที่ลายเซ็นของ OpenAI CEO Altman หายไป ที่ จดหมายเฉพาะ เห็นได้ชัดว่าเป็นเพราะเป็นการเรียกบริษัทของเขาโดยตรง 

OpenAI ได้ออกตั้งแต่นั้นมา คำเตือนของมันเอง เกี่ยวกับภัยคุกคามที่เกิดจาก AI ขั้นสูง และเรียกร้องให้มีการจัดตั้งหน่วยงานเฝ้าระวังทั่วโลกที่คล้ายกับสำนักงานพลังงานปรมาณูระหว่างประเทศ เพื่อควบคุมการใช้ AI

การเตือนและการเรียกตามระเบียบนั้น ในกรณีของเวลาที่ไม่ดีในอดีต มาในวันเดียวกับที่อัลท์แมน ขู่ เพื่อดึง OpenAI และ ChatGPT จากสหภาพยุโรปไปยังกลุ่ม พระราชบัญญัติ AI. กฎที่เขาสนับสนุนเป็นสิ่งหนึ่ง แต่ Altman บอกกับบรัสเซลส์ว่าความคิดของพวกเขาเกี่ยวกับการจำกัด AI นั้นเป็นสะพานควบคุมที่ห่างไกลเกินไป ขอบคุณมาก 

สมาชิกรัฐสภาสหภาพยุโรป การตอบสนอง โดยกล่าวว่าพวกเขาจะไม่ถูกบงการโดย OpenAI และหากบริษัทไม่สามารถปฏิบัติตามกฎการกำกับดูแลขั้นพื้นฐานและความโปร่งใสได้ “ระบบของพวกเขาไม่เหมาะสำหรับตลาดยุโรป” MEP Kim van Sparrentak ชาวดัตช์ยืนยัน 

เราได้ขอให้ OpenAI ชี้แจงเกี่ยวกับตำแหน่งของ Altman และจะอัปเดตเรื่องราวนี้หากเราได้รับการตอบกลับ ®

ประทับเวลา:

เพิ่มเติมจาก ลงทะเบียน