ความเร่งด่วนในการจัดการกับการเลือกปฏิบัติของ AI: ความโปร่งใส ความรับผิดชอบ และกรอบเวลาด้านกฎระเบียบ

ความเร่งด่วนในการจัดการกับการเลือกปฏิบัติของ AI: ความโปร่งใส ความรับผิดชอบ และกรอบเวลาด้านกฎระเบียบ

โหนดต้นทาง: 2747320

ปัญญาประดิษฐ์ (AI) ได้ปฏิวัติอุตสาหกรรมต่างๆ โดยนำเสนอคุณประโยชน์และโอกาสมากมาย อย่างไรก็ตาม มีความกังวลเกิดขึ้นเกี่ยวกับศักยภาพของ AI ที่จะขยายเวลาการเลือกปฏิบัติและอคติ บทความนี้สำรวจหัวข้อการเลือกปฏิบัติของ AI โดยให้ความกระจ่างเกี่ยวกับความท้าทายในการระบุและจัดการกับอคติที่ฝังอยู่ภายในระบบ AI คนในวงการแสดงความสงสัยเกี่ยวกับผลกระทบทางศีลธรรมและจริยธรรมของ AI โดยอ้างถึงความกังวลเกี่ยวกับข้อมูลที่ผิด อคติในอัลกอริทึม และการสร้างเนื้อหาที่ทำให้เข้าใจผิด ในขณะที่ข้อถกเถียงเกี่ยวกับ AI ทวีความเข้มข้นขึ้น มีการเรียกร้องให้มีกฎระเบียบที่มีความหมายมากขึ้นเพื่อให้เกิดความโปร่งใส ความรับผิดชอบ และการคุ้มครองสิทธิขั้นพื้นฐาน

ความท้าทายสำหรับอุตสาหกรรมการเงินด้วย AI

ตามที่ Nabil Manji หัวหน้าฝ่าย crypto และ Web3 ที่ Worldpay โดย FIS กล่าวไว้ ประสิทธิภาพของผลิตภัณฑ์ AI ขึ้นอยู่กับคุณภาพของแหล่งข้อมูลที่ใช้ในการฝึกอบรมเป็นอย่างมาก ในการให้สัมภาษณ์กับ CNBC Manji อธิบายว่าปัจจัยหลักสองประการที่ส่งผลต่อประสิทธิภาพของ AI ได้แก่ ข้อมูลที่สามารถเข้าถึงได้ และความสามารถของโมเดลภาษาขนาดใหญ่

เพื่อแสดงให้เห็นถึงความสำคัญของข้อมูล Manji กล่าวว่าบริษัทอย่าง Reddit ได้ประกาศข้อจำกัดในการคัดลอกข้อมูลต่อสาธารณะ โดยต้องชำระเงินสำหรับการเข้าถึง ในภาคบริการทางการเงิน เขาได้เน้นย้ำถึงความท้าทายของระบบข้อมูลที่กระจัดกระจายในภาษาและรูปแบบต่างๆ การขาดการบูรณาการและการประสานกันนี้จำกัดประสิทธิภาพของผลิตภัณฑ์ที่ขับเคลื่อนด้วย AI โดยเฉพาะอย่างยิ่งเมื่อเปรียบเทียบกับอุตสาหกรรมที่มีโครงสร้างพื้นฐานข้อมูลที่ได้มาตรฐานและทันสมัย

จากข้อมูลของ Manji การใช้ประโยชน์จากบล็อคเชนหรือเทคโนโลยีบัญชีแยกประเภทแบบกระจายอาจเสนอวิธีแก้ปัญหาที่เป็นไปได้ในการแก้ไขปัญหานี้ แนวทางที่เป็นนวัตกรรมนี้สามารถเพิ่มความโปร่งใสในข้อมูลที่กระจัดกระจายซึ่งจัดเก็บไว้ในระบบที่ซับซ้อนของธนาคารทั่วไป อย่างไรก็ตาม เขารับทราบว่าธรรมชาติของธนาคารที่มีการควบคุมอย่างเข้มงวดและเคลื่อนไหวช้าอาจขัดขวางความสามารถในการนำเครื่องมือ AI ใหม่มาใช้อย่างรวดเร็ว ซึ่งแตกต่างจากบริษัทเทคโนโลยีที่มีความคล่องตัวอื่นๆ เช่น Microsoft และ Google ซึ่งอยู่ในแนวหน้าในการขับเคลื่อนนวัตกรรมในช่วงสองสามปีที่ผ่านมา ทศวรรษ

เมื่อพิจารณาปัจจัยเหล่านี้ จะเห็นได้ชัดว่าอุตสาหกรรมการเงินเผชิญกับความท้าทายพิเศษในการใช้ประโยชน์จาก AI เนื่องจากความซับซ้อนของการบูรณาการข้อมูลและลักษณะโดยธรรมชาติของภาคการธนาคาร

ตามคำกล่าวของ Rumman Chowdhury อดีตหัวหน้าฝ่ายจริยธรรมการเรียนรู้ของเครื่อง ความโปร่งใส และความรับผิดชอบของ Twitter การให้ยืมเป็นตัวอย่างที่น่าทึ่งว่าอคติในระบบ AI อาจส่งผลเสียต่อชุมชนชายขอบได้อย่างไร ในการเสวนาที่กรุงอัมสเตอร์ดัม Chowdhury เน้นย้ำถึงแนวปฏิบัติทางประวัติศาสตร์ของ "การลงแดง" ในชิคาโกในช่วงทศวรรษที่ 1930 Redlining เกี่ยวข้องกับการปฏิเสธการให้กู้ยืมเงินแก่ย่านใกล้เคียงที่เป็นแอฟริกันอเมริกันโดยพิจารณาจากข้อมูลประชากรทางเชื้อชาติ

Chowdhury อธิบายว่าแม้ว่าอัลกอริธึมสมัยใหม่อาจไม่ได้รวมเชื้อชาติเป็นจุดข้อมูลอย่างชัดเจน แต่อคติยังสามารถเข้ารหัสโดยปริยายได้ เมื่อมีการพัฒนาอัลกอริทึมเพื่อประเมินความเสี่ยงของเขตและบุคคลเพื่อวัตถุประสงค์ในการกู้ยืม ข้อมูลในอดีตที่มีอคติสามารถทำให้เกิดการเลือกปฏิบัติโดยไม่ตั้งใจได้

Angle Bush ผู้มีวิสัยทัศน์เบื้องหลังผู้หญิงผิวดำในด้านปัญญาประดิษฐ์ เน้นย้ำถึงความสำคัญของการยอมรับอันตรายที่เกี่ยวข้องกับการสร้างอคติที่ฝังอยู่ในข้อมูลในอดีต เมื่อใช้ระบบ AI ในการพิจารณาอนุมัติสินเชื่อ การปฏิบัติดังกล่าวอาจนำไปสู่การปฏิเสธการสมัครขอสินเชื่อจากชุมชนชายขอบโดยอัตโนมัติ ซึ่งส่งผลให้เกิดความไม่เท่าเทียมกันทางเชื้อชาติหรือทางเพศ

Frost Li นักพัฒนา AI ที่มีประสบการณ์ ชี้ให้เห็นถึงความท้าทายของการปรับเปลี่ยนในแบบของคุณ บูรณาการ AI. การเลือก “คุณสมบัติหลัก” สำหรับการฝึกโมเดล AI บางครั้งอาจเกี่ยวข้องกับปัจจัยที่ไม่เกี่ยวข้องซึ่งอาจนำไปสู่ผลลัพธ์ที่มีอคติ Li ยกตัวอย่างว่า บริษัท Fintech Startup ที่กำหนดเป้าหมายไปที่ชาวต่างชาติอาจเผชิญกับเกณฑ์การประเมินเครดิตที่แตกต่างกันอย่างไรเมื่อเปรียบเทียบกับธนาคารในท้องถิ่น ซึ่งคุ้นเคยกับโรงเรียนและชุมชนในท้องถิ่นมากกว่า

Niklas Guske ซีโอโอของ Taktile ซึ่งเป็นสตาร์ทอัพที่เชี่ยวชาญด้านการตัดสินใจอัตโนมัติสำหรับฟินเทค ชี้แจงว่า โดยทั่วไปแล้ว generative AI จะไม่ถูกใช้เพื่อสร้างคะแนนเครดิตหรือคะแนนความเสี่ยงของผู้บริโภค ในทางตรงกันข้าม จุดแข็งอยู่ที่การประมวลผลล่วงหน้าของข้อมูลที่ไม่มีโครงสร้าง เช่น ไฟล์ข้อความ เพื่อปรับปรุงคุณภาพข้อมูลสำหรับโมเดลการรับประกันภัยแบบทั่วไป

โดยสรุป การใช้ AI ในการให้กู้ยืมและบริการทางการเงินทำให้เกิดความกังวลเกี่ยวกับอคติและการเลือกปฏิบัติ อคติในอดีตที่ฝังอยู่ในข้อมูลและการเลือกคุณสมบัติที่ไม่เกี่ยวข้องระหว่างการฝึกอบรม AI อาจนำไปสู่ผลลัพธ์ที่ไม่ยุติธรรม เป็นสิ่งสำคัญสำหรับธนาคารและสถาบันการเงินในการรับรู้และแก้ไขปัญหาเหล่านี้ เพื่อป้องกันการเลือกปฏิบัติโดยไม่ตั้งใจเมื่อใช้โซลูชัน AI

พิสูจน์การเลือกปฏิบัติของ AI

การพิสูจน์ว่าการเลือกปฏิบัติโดยใช้ AI อาจเป็นเรื่องที่ท้าทาย ดังที่เห็นได้จากตัวอย่าง เช่น กรณีที่เกี่ยวข้องกับ Apple และ Goldman Sachs กระทรวงบริการทางการเงินแห่งรัฐนิวยอร์กยกฟ้องข้อกล่าวหาเรื่องการกำหนดขีดจำกัดล่างของ Apple Card สำหรับผู้หญิง โดยอ้างว่าไม่มีหลักฐานที่เป็นรูปธรรม

Kim Smouter ผู้อำนวยการ European Network Against Racism ชี้ให้เห็นว่าการใช้งาน AI จำนวนมากทำให้เกิดความทึบในกระบวนการตัดสินใจ ทำให้ยากสำหรับบุคคลในการระบุและจัดการกับการเลือกปฏิบัติ

Smouter อธิบายว่าบุคคลมักมีความรู้จำกัดเกี่ยวกับวิธีการทำงานของระบบ AI ทำให้การตรวจจับกรณีการเลือกปฏิบัติหรืออคติเชิงระบบเป็นเรื่องที่ท้าทาย มันจะซับซ้อนยิ่งขึ้นเมื่อการเลือกปฏิบัติเป็นส่วนหนึ่งของปัญหาในวงกว้างที่ส่งผลกระทบต่อบุคคลหลายคน Smouter อ้างอิงถึงเรื่องอื้อฉาวด้านสวัสดิการเด็กของชาวดัตช์ ซึ่งการเรียกร้องผลประโยชน์จำนวนมากถูกระบุว่าเป็นการฉ้อโกงเนื่องจากอคติทางสถาบัน การค้นพบความผิดปกติดังกล่าวเป็นเรื่องที่ท้าทาย และการได้รับการเยียวยาอาจเป็นเรื่องยากและใช้เวลานาน ซึ่งนำไปสู่อันตรายที่สำคัญและบางครั้งไม่สามารถรักษาให้หายขาดได้

ตัวอย่างเหล่านี้แสดงให้เห็นถึงความยากลำบากโดยธรรมชาติในการพิสูจน์การเลือกปฏิบัติโดยอาศัย AI และการได้รับการเยียวยาเมื่อการเลือกปฏิบัติดังกล่าวเกิดขึ้น ความซับซ้อนของระบบ AI และการขาดความโปร่งใสในกระบวนการตัดสินใจ ทำให้เกิดความท้าทายสำหรับบุคคลในการรับรู้และจัดการกับกรณีของการเลือกปฏิบัติอย่างมีประสิทธิภาพ

จากข้อมูลของ Chowdhury มีความจำเป็นเร่งด่วนที่หน่วยงานกำกับดูแลระดับโลกที่คล้ายกับสหประชาชาติ จะต้องจัดการกับความเสี่ยงที่เกี่ยวข้องกับ AI ในขณะที่ AI ได้แสดงให้เห็นถึงนวัตกรรมที่น่าทึ่ง นักเทคโนโลยีและนักจริยธรรมก็หยิบยกข้อกังวลเกี่ยวกับผลกระทบทางศีลธรรมและจริยธรรม ข้อกังวลเหล่านี้ครอบคลุมถึงประเด็นต่างๆ เช่น ข้อมูลที่ไม่ถูกต้อง อคติทางเชื้อชาติและเพศที่ฝังอยู่ในอัลกอริทึม AI และการสร้างเนื้อหาที่ทำให้เข้าใจผิดโดยเครื่องมือเช่น ChatGPT

Chowdhury แสดงความกังวลเกี่ยวกับการเข้าสู่โลกหลังความจริงที่ข้อมูลออนไลน์ รวมถึงข้อความ วิดีโอ และเสียง กลายเป็นเรื่องไม่น่าไว้วางใจเนื่องจาก AI กำเนิด สิ่งนี้ทำให้เกิดคำถามว่าเราจะมั่นใจในความสมบูรณ์ของข้อมูลได้อย่างไร และเราจะพึ่งพาข้อมูลดังกล่าวในการตัดสินใจอย่างมีข้อมูลได้อย่างไร ด้วยตัวอย่างพระราชบัญญัติ AI ของสหภาพยุโรป กฎระเบียบที่มีความหมายของ AI จึงมีความสำคัญอย่างยิ่งในขณะนี้ อย่างไรก็ตาม มีความกังวลเกี่ยวกับระยะเวลาที่ยาวกว่าที่ข้อเสนอด้านกฎระเบียบจะมีประสิทธิภาพ ซึ่งอาจส่งผลให้การดำเนินการที่จำเป็นล่าช้าออกไป

Smouter เน้นย้ำถึงความจำเป็นในการเพิ่มความโปร่งใสและความรับผิดชอบในอัลกอริทึม AI ซึ่งรวมถึงการทำให้อัลกอริทึมสามารถเข้าใจได้มากขึ้นสำหรับผู้ที่ไม่ใช่ผู้เชี่ยวชาญ ทำการทดสอบและเผยแพร่ผลลัพธ์ สร้างกระบวนการร้องเรียนที่เป็นอิสระ ดำเนินการตรวจสอบและรายงานเป็นระยะ และเกี่ยวข้องกับชุมชนที่มีเชื้อชาติในการออกแบบและปรับใช้เทคโนโลยี การบังคับใช้พระราชบัญญัติ AI ซึ่งใช้มุมมองด้านสิทธิขั้นพื้นฐานและแนะนำแนวคิดเช่นการชดเชย คาดว่าจะเริ่มได้ในอีกประมาณสองปี การลดระยะเวลานี้จะเป็นประโยชน์ในการรักษาความโปร่งใสและความรับผิดชอบในฐานะที่เป็นองค์ประกอบสำคัญของนวัตกรรม

ประทับเวลา:

เพิ่มเติมจาก ข่าว Forex ตอนนี้

Goldman Sachs คาดการณ์การฟื้นตัวทางเศรษฐกิจของจีนในปี 2024: การวิเคราะห์ที่ครอบคลุมของภาคส่วนสำคัญและข้อมูลเชิงลึกเชิงกลยุทธ์

โหนดต้นทาง: 2975265
ประทับเวลา: พฤศจิกายน 22, 2023