สหราชอาณาจักรจะตอบสนองต่อสมุดปกขาวของ AI ด้วยการทดสอบตามกฎระเบียบ

สหราชอาณาจักรจะตอบสนองต่อสมุดปกขาวของ AI ด้วยการทดสอบตามกฎระเบียบ

โหนดต้นทาง: 3070094

รัฐบาลสหราชอาณาจักรจะเผยแพร่การทดสอบกฎหมาย AI ใหม่ โดยเน้นที่ความปลอดภัยและการเติบโตของอุตสาหกรรม สถาบันความปลอดภัย AI จะมีบทบาท โดยมีกฎระเบียบที่เกิดจากความเสี่ยงด้านความปลอดภัยหรือการไม่ปฏิบัติตามโดยบริษัท AI เช่น OpenAI และ Google

กฎหมายดังกล่าวสอดคล้องกับจุดเน้นของรัฐบาลในการต่อต้านการสร้างระบบการกำกับดูแลที่เข้มงวดมากขึ้นสำหรับเทคโนโลยีที่พัฒนาอย่างรวดเร็ว ตามรายงานของ Financial Times ในอีกไม่กี่สัปดาห์ข้างหน้า รัฐมนตรีของอังกฤษจะเผยแพร่เกณฑ์ดังกล่าว ซึ่งจะระบุสถานการณ์ที่พวกเขาจะบังคับใช้โมเดลปัญญาประดิษฐ์ (AI) อันทรงพลังที่สร้างโดย Google, OpenAI และบริษัทอื่นๆ

พื้นที่ รัฐบาลสหราชอาณาจักร วางระบบเฝ้าดูสิ่งนี้ คือ สถาบันความปลอดภัย AI ซึ่งเป็นหน่วยงานที่ประกอบด้วยนักวิชาการและผู้เชี่ยวชาญด้านการเรียนรู้ หากสถาบันความปลอดภัย AI ไม่สามารถระบุความเสี่ยงเกี่ยวกับเทคโนโลยีได้ การแทรกแซงจะถูกกระตุ้น การทดสอบอีกประการหนึ่งที่สามารถกระตุ้นให้เกิดการออกกฎหมายก็คือ หากบริษัท AI ไม่ปฏิบัติตามคำมั่นสัญญาโดยสมัครใจเพื่อหลีกเลี่ยงอันตราย

แนวทางของรัฐบาลสหราชอาณาจักรต่อ AI

คำแถลงที่เผยแพร่โดยรัฐบาลยืนยันว่าแนวทางแบบสัมผัสเล็กๆ น้อยๆ ของรัฐบาลสหราชอาณาจักรในการควบคุม AI จะสะท้อนให้เห็นในการเผยแพร่การทดสอบเหล่านี้ ตามคำแถลง พวกเขาจะดำเนินการเพื่อลดความเสี่ยงและสนับสนุนให้มีความปลอดภัยและมีความรับผิดชอบ เทคโนโลยี AI ตามความจำเป็น. คำแถลงดังกล่าวกล่าวต่อว่าพวกเขาจะรักษาแนวทางการสร้างสรรค์นวัตกรรมโดยปรึกษาหารืออย่างใกล้ชิดกับภาคประชาสังคมและอุตสาหกรรม

ด้วยเหตุนี้ ปรัชญาจะดำเนินการผ่าน 'การทดสอบ' เพื่อผ่านกฎหมาย AI ที่เสนอโดยรัฐบาลสหราชอาณาจักร โดยมีเงื่อนไขว่ากฎหมายใหม่จะไม่ทำให้นวัตกรรมเสียหายโดยไม่มีสาเหตุ

เป็นที่เข้าใจกันว่าการทดสอบดังกล่าวจะได้รับการเผยแพร่โดยเป็นส่วนหนึ่งของกระบวนการปรึกษาหารือสำหรับสมุดปกขาวด้าน AI ของรัฐบาล ซึ่งเผยแพร่ในเดือนมีนาคม พ.ศ. 2023

เอกสารไวท์เปเปอร์ไม่ได้ดำเนินไปโดยไม่มีคำวิจารณ์ Karen Yeung ศาสตราจารย์แห่งมหาวิทยาลัยเบอร์มิงแฮมและผู้สมัครระดับปริญญาเอก Emma Ahmed-Rengers กล่าวว่าเอกสารดังกล่าวเป็นพื้นฐานที่ไม่เพียงพอสำหรับนโยบายที่ดี พวกเขาเสริมว่าเอกสารดังกล่าวไม่สามารถทำหน้าที่เป็นรากฐานของกรอบการกำกับดูแลที่มีประสิทธิภาพและถูกต้องตามกฎหมายเพื่อประโยชน์ของสาธารณะ

อย่างไรก็ตาม คนอื่นๆ บางส่วนชี้ให้เห็นว่าการควบคุม AI ในสหราชอาณาจักรได้เริ่มดำเนินการโดยหน่วยงานกำกับดูแลรายสาขาแล้ว ซึ่งรวมถึง Ofcom และสำนักงานกรรมาธิการข้อมูล ซึ่งได้เริ่มดำเนินการตรวจสอบอัลกอริทึมในพื้นที่เขตอำนาจศาลของตน

สหราชอาณาจักรใช้งานบรรทัดฐาน AI ในระดับสากล

บริษัท AI รวมถึง OpenAI, Google, DeepMind, Microsoft และ Meta ได้ลงนามในนโยบายสมัครใจหลายฉบับในเดือนพฤศจิกายน พวกเขามีความกังวลเกี่ยวกับความปลอดภัยของผลิตภัณฑ์ของตน ซึ่งเป็นส่วนหนึ่งของการประชุมสุดยอดความปลอดภัยด้าน AI ระดับโลกที่รัฐบาลสหราชอาณาจักรจัดขึ้น

บริษัทเหล่านี้ตกลงที่จะอนุญาตให้ สถาบันความปลอดภัย AI ของสหราชอาณาจักร เพื่อประเมินความปลอดภัยของรุ่นที่ผลิตสินค้าเช่น ChatGPT ก่อนที่จะนำไปใช้โดยธุรกิจและผู้บริโภค

ด้วยเหตุนี้ การประเมินแบบจำลองเหล่านี้จึงอยู่ระหว่างดำเนินการ แต่จะดำเนินการอย่างไรจึงยังไม่ชัดเจน นอกจากนี้ ยังไม่มีความชัดเจนว่าบริษัท AI จะให้การเข้าถึงอย่างครอบคลุมหรือไม่ เจ้าหน้าที่ของรัฐระบุว่าปัจจุบันพวกเขาโชคดีเพราะต้องอาศัยความปรารถนาดีทั้งสองฝ่าย เจ้าหน้าที่กล่าวต่อโดยกล่าวว่าการประเมินโมเดลเหล่านี้ขึ้นอยู่กับตัวละครและขึ้นอยู่กับ CEO

ประทับเวลา:

เพิ่มเติมจาก เมตานิวส์