ที่ปรึกษานายกฯ อินเดียชี้ AI อาจทำให้เกิด 'โรคจิตเภทจำนวนมาก'

ที่ปรึกษานายกฯ อินเดียชี้ AI อาจทำให้เกิด 'โรคจิตเภทจำนวนมาก'

โหนดต้นทาง: 3091579

สภาที่ปรึกษาเศรษฐกิจของอินเดียประจำนายกรัฐมนตรี (EACPM) ได้เขียนเอกสารเตือนว่ากฎระเบียบด้าน AI ทั่วโลกในปัจจุบันมีแนวโน้มที่จะไม่มีประสิทธิภาพ และแนะนำให้ควบคุมเทคโนโลยีด้วยกลยุทธ์ทางเลือก เช่นเดียวกับที่ใช้ในตลาดการเงิน

สภากังวลเรื่อง AI มาก เอกสารเตือนว่า “ด้วยการผสมผสานระหว่างการเฝ้าระวัง ข้อความโน้มน้าวใจ และการสร้างสื่อสังเคราะห์ AI ที่มุ่งร้ายสามารถควบคุมระบบนิเวศของข้อมูลได้มากขึ้น และแม้แต่สร้างความเป็นจริงที่หลอกลวงที่กำหนดเองเพื่อบังคับพฤติกรรมของมนุษย์ และกระตุ้นให้เกิดโรคจิตเภทจำนวนมาก”

องค์กรวิพากษ์วิจารณ์แนวทางของสหรัฐฯ ต่อ AI ว่าเป็นการละเลยเกินไป สหราชอาณาจักรเป็นการนำเสนอความเสี่ยงโดยเป็นนวัตกรรมที่เป็นมืออาชีพและไม่เป็นทางการ และกฎ AI ของสหภาพยุโรปมีข้อบกพร่องเนื่องจากประเทศสมาชิกของกลุ่มแตกแยกและปรับใช้การเน้นและการประยุกต์ใช้ที่แตกต่างกัน มาตรการบังคับใช้

เอกสารดังกล่าวยังระบุด้วยว่าแนวโน้มของจีนในการควบคุมด้วย “ระบบราชการแบบรวมศูนย์ที่ทรงอำนาจทั้งหมด” มีข้อบกพร่อง ดังแสดงให้เห็นได้จาก “แหล่งที่มาของเชื้อโควิด-19 ที่รั่วไหลจากห้องปฏิบัติการ”

เราผ่านกระจกมองที่นี่ผู้คน

(สำหรับบันทึกนั้น สำนักงานผู้อำนวยการข่าวกรองแห่งชาติของสหรัฐอเมริกาได้ ไม่พบข้อบ่งชี้ ว่าไวรัสรั่วไหลมาจากแล็ปจีน)

แต่เราพูดนอกเรื่อง

สภาแนะนำว่า AI ถือเป็น "ระบบการจัดการตนเองแบบกระจายอำนาจ [ที่วิวัฒนาการ] ผ่านลูปป้อนกลับ การเปลี่ยนเฟส และความอ่อนไหวต่อสภาวะเริ่มต้น" และแสดงตัวอย่างอื่น ๆ ของระบบดังกล่าว เช่น เอนทิตีที่ไม่เชิงเส้นที่เห็นในตลาดการเงิน พฤติกรรมของอาณานิคมมด หรือรูปแบบการจราจร

“วิธีการแบบดั้งเดิมขาดตลาดเนื่องจากลักษณะที่ไม่เป็นเชิงเส้นและคาดเดาไม่ได้ของ AI ระบบ AI นั้นคล้ายกับ Complex Adaptive Systems (CAS) ซึ่งส่วนประกอบต่าง ๆ โต้ตอบและพัฒนาในลักษณะที่คาดเดาไม่ได้” อธิบาย [PDF] สภา.

สภาไม่กระตือรือร้นที่จะอาศัยมาตรการ "อดีต" เนื่องจากเป็นไปไม่ได้ที่จะทราบล่วงหน้าถึงความเสี่ยงที่ระบบ AI จะนำเสนอ - พฤติกรรมของมันเป็นผลมาจากปัจจัยมากเกินไป

เอกสารดังกล่าวจึงเสนอให้อินเดียใช้มาตรการกำกับดูแล 5 ประการ:

  • ติดตั้งราวกันตกและฉากกั้นซึ่งควรตรวจสอบให้แน่ใจว่าเทคโนโลยี AI จะไม่เกินฟังก์ชันที่ตั้งใจไว้หรือบุกรุกพื้นที่อันตราย เช่น การตัดสินใจเรื่องอาวุธนิวเคลียร์ หากพวกเขาฝ่าฝืนรั้วนั้นในระบบเดียว พาร์ติชั่นจะอยู่ที่นั่นเพื่อให้แน่ใจว่าพาร์ติชั่นจะไม่แพร่กระจาย
  • ตรวจสอบให้แน่ใจว่ามีการแทนที่ด้วยตนเองและจุดควบคุมการอนุญาต ที่ทำให้มนุษย์สามารถควบคุมได้ และทำให้พวกเขาปลอดภัยด้วยการรับรองความถูกต้องแบบหลายปัจจัยและกระบวนการตรวจสอบแบบหลายชั้นสำหรับผู้มีอำนาจตัดสินใจที่เป็นมนุษย์
  • ความโปร่งใสและอธิบายได้ ด้วยมาตรการต่างๆ เช่น การให้สิทธิ์ใช้งานแบบเปิดสำหรับอัลกอริธึมหลักเพื่อส่งเสริมสภาพแวดล้อมที่เป็นมิตรต่อการตรวจสอบ การตรวจสอบและการประเมินอย่างสม่ำเสมอ และเอกสารการพัฒนาที่เป็นมาตรฐาน
  • ความรับผิดชอบที่แตกต่าง ผ่านระเบียบการรับผิดที่กำหนดไว้ล่วงหน้า การรายงานเหตุการณ์ที่ได้รับคำสั่งให้เป็นมาตรฐาน และกลไกการสอบสวน
  • จัดตั้งหน่วยงานกำกับดูแลเฉพาะทางที่ได้รับมอบหมายหน้าที่อย่างกว้างขวาง ใช้วิธีการขับเคลื่อนด้วยผลตอบรับ ติดตามและติดตามพฤติกรรมของระบบ AI ผสานรวมระบบการแจ้งเตือนอัตโนมัติ และสร้างทะเบียนระดับประเทศ

สภาแนะนำให้มองหาระบบ CAS อื่นๆ เพื่อหาแนวคิดในการนำเสนอแนวคิด โดยหลักๆ แล้วคือตลาดการเงิน

“ข้อมูลเชิงลึกจากการควบคุมระบบที่วุ่นวาย เช่น ตลาดการเงิน แสดงให้เห็นถึงแนวทางการควบคุมที่เป็นไปได้สำหรับเทคโนโลยีที่ซับซ้อน” เอกสารตั้งข้อสังเกต โดยแนะนำว่าหน่วยงานกำกับดูแล AI เฉพาะสามารถจำลองตามหน่วยงานกำกับดูแลทางการเงิน เช่น SEBI ของอินเดีย หรือ SEC ของสหรัฐอเมริกา

เช่นเดียวกับที่หน่วยงานเหล่านั้นกำหนดให้ต้องหยุดการซื้อขายเมื่อตลาดตกอยู่ในอันตราย หน่วยงานกำกับดูแลก็สามารถนำ "จุดควบคุม" ที่คล้ายกันมาใช้ ซึ่ง AI จะถูกแก้ไข การรายงานทางการเงินภาคบังคับเป็นแบบอย่างที่ดีสำหรับประเภทการเปิดเผยข้อมูลที่ผู้ปฏิบัติงาน AI จำเป็นต้องยื่น

ความกังวลของผู้เขียนได้รับแรงหนุนจากความเชื่อที่ว่าการแพร่หลายของ AI ที่เพิ่มขึ้น บวกกับความทึบของการทำงาน หมายความว่าโครงสร้างพื้นฐานที่สำคัญ การปฏิบัติการป้องกัน และสาขาอื่น ๆ อีกมากมายตกอยู่ในความเสี่ยง

อันตรายที่กล่าวถึง ได้แก่ “AI ที่ไม่สามารถควบคุมได้” ซึ่งระบบอาจพัฒนาตัวเองซ้ำๆ เกินกว่าการควบคุมของมนุษย์ และ “ไม่สอดคล้องกับสวัสดิภาพของมนุษย์” และผลกระทบแบบผีเสื้อ – สถานการณ์ “ที่การเปลี่ยนแปลงเล็กน้อยสามารถนำไปสู่ผลลัพธ์ที่สำคัญและคาดไม่ถึงได้”

“ดังนั้น ระบบการควบคุมอัลกอริธึม ชุดการฝึกอบรม และแบบจำลองโดยมีเป้าหมายเพื่อเพิ่มผลประโยชน์สูงสุดอาจนำไปสู่ผลลัพธ์ที่เลวร้ายได้” สภาเตือน

เอกสารตั้งข้อสังเกตว่ากฎระเบียบที่เสนออาจหมายถึงบางสถานการณ์จำเป็นต้องถูกตัดออก

“เราไม่อาจยอมให้อินเทอร์เน็ตมีการเชื่อมต่อขั้นสูงสำหรับทุกสิ่ง” สภายอมรับ แต่สรุปได้ว่ามนุษยชาติอาจได้รับประโยชน์มากกว่านี้จากกฎระเบียบที่เข้มงวด

“เครื่องมือ AI ที่สร้างขึ้นมาจะไม่ยอมปล่อยออกไปง่ายๆ สำหรับผลที่ตามมาโดยไม่ได้ตั้งใจ – ดังนั้นจึงเป็นการแทรกอดีต 'Skin in the Game' มนุษย์จะคงไว้ซึ่งอำนาจแทนที่และการอนุญาต การตรวจสอบที่ได้รับมอบอำนาจตามปกติจะต้องบังคับใช้คำอธิบายได้” ®

ประทับเวลา:

เพิ่มเติมจาก ลงทะเบียน

Mobileye ของ Intel เปิดตัว 'รถยนต์ขับเคลื่อนด้วยตนเองไฟฟ้าเต็มรูปแบบเกรดการผลิต' รุ่นแรก ร่วมกับ Sixt สำหรับการเปิดตัวในมิวนิก

โหนดต้นทาง: 1866270
ประทับเวลา: กันยายน 8, 2021